Zum Inhalt springen
Vocaid

Subscribe to our newsletter

Weekly digest of new blog posts. Unsubscribe anytime.

Vocaid

Verwandeln Sie Interviews in messbaren Fortschritt.

Produkt

  • Interview-Übung
  • So funktioniert's

Entwickler

  • API-Referenz
  • Vocaid Connect

Unternehmen

  • Über uns

Rechtliches

  • Datenschutzrichtlinie
  • Nutzungsbedingungen
  • Cookie-Richtlinie
  • KI-Transparenz
  • Meine Daten Nicht Verkaufen

© 2026 Vocaid. All rights reserved.

Diese Website wird durch reCAPTCHA geschützt und es gelten die Datenschutzbestimmungen und Nutzungsbedingungen von Google.

    This is a courtesy translation. The English version is the legally binding document.

    AI Transparency & Candidate Rights

    Last updated: 28. Februar 2026

    Table of Contents

    Table of Contents

    1. Overview

    Vocaid is committed to transparency about how artificial intelligence is used in our platform. This page provides a comprehensive overview of our AI systems, how they generate outputs, their known limitations, and your rights as a user.

    We believe that every person who interacts with AI-powered hiring tools has the right to understand how those tools work and how they may affect decisions about their career.

    2. AI Systems Inventory

    Vocaid uses the following AI systems in its platform. Each system is described with its purpose, the data it processes, and the safeguards in place.

    Voice Interview AI

    Conducts real-time voice-based interviews using natural language processing

    Data Processed

    • •Audio input from microphone
    • •Job description and resume content
    • •Conversation context from current session

    Outputs

    • •Natural language interview questions
    • •Follow-up questions based on responses
    • •Real-time speech-to-text transcription

    Known Limitations

    • •May misunderstand heavy accents or dialects
    • •Transcription accuracy varies with audio quality
    • •Cannot assess physical demonstrations or hands-on skills
    • •Response quality depends on internet connection stability

    Human Oversight

    All AI-generated scores are presented as recommendations. B2B hiring managers retain full decision authority. Candidates may request human review.

    Behavioral Analysis

    Analyzes non-verbal communication signals during video interviews for coaching feedback

    Data Processed

    • •Video frames (sampled, not continuously stored)
    • •Face detection coordinates (not facial recognition)
    • •Gaze direction estimates
    • •Head position and movement patterns

    Outputs

    • •Eye contact consistency percentage
    • •Posture and engagement indicators
    • •Response timing metrics
    • •Gaze tracking heatmap data

    Known Limitations

    • •Accuracy depends on camera quality and lighting
    • •Cannot assess emotional state (emotion recognition is prohibited)
    • •May be less accurate for certain face shapes or skin tones
    • •Requires frontal camera position for reliable results

    Human Oversight

    Behavioral signals are supplementary coaching data only. They are never the sole basis for scoring. Users can opt out entirely and use audio-only mode.

    ATS Resume Scoring

    Analyzes resume content against job descriptions to provide compatibility scoring

    Data Processed

    • •Resume text content
    • •Job description requirements
    • •Industry-standard keyword databases

    Outputs

    • •Overall compatibility score (0-100)
    • •Keyword match analysis
    • •Missing skills identification
    • •Format and structure recommendations

    Known Limitations

    • •Cannot verify claims made in resumes
    • •May undervalue non-traditional career paths
    • •Keyword matching may miss equivalent terminology
    • •Does not assess soft skills or cultural fit

    Human Oversight

    ATS scores are advisory tools for resume improvement. They do not determine interview access or hiring outcomes.

    Liveness Detection

    Verifies that a real person is present during the interview session to prevent fraud

    Data Processed

    • •Video frames during verification
    • •Face detection coordinates
    • •Head movement tracking

    Outputs

    • •Pass/fail liveness verification result
    • •Confidence score (internal use only)

    Known Limitations

    • •May fail in poor lighting conditions
    • •Requires camera access (can be skipped with fallback)
    • •May be less reliable with certain accessories (masks, heavy makeup)

    Human Oversight

    Liveness verification is a binary pass/fail check. Failed verification can be retried or skipped. It does not affect interview scoring.

    3. Scoring Methodology

    Vocaid's interview scoring evaluates candidates across multiple dimensions using AI analysis of their spoken responses. Scores reflect the AI's assessment of demonstrated competencies, not the person's inherent abilities.

    Scoring Dimensions

    • Communication Clarity: How clearly and coherently ideas are expressed
    • Technical Knowledge: Demonstrated understanding of relevant technical concepts
    • Problem-Solving: Approach to analyzing and solving presented challenges
    • Relevance: How well responses address the specific question asked
    • Depth: Level of detail and substantive content in responses

    Scores range from 0 to 100 and represent relative assessments. They should be interpreted as coaching feedback, not absolute measurements. Scores may vary across sessions due to question variation, AI model updates, and response differences.

    4. Bias Prevention

    We are committed to ensuring our AI systems do not discriminate against any individual or group based on protected characteristics including race, gender, age, disability, national origin, or other legally protected categories.

    Our Bias Prevention Measures

    • Regular testing of AI outputs across demographic groups to identify disparate impact
    • Prohibition of emotion recognition in workplace assessment contexts (EU AI Act compliance)
    • Scoring based on content and communication quality, not voice characteristics, accent, or appearance
    • Continuous monitoring of score distributions for statistical anomalies
    • Planned independent bias audit by a qualified third-party auditor (per NYC Local Law 144 requirements)

    If you believe you have experienced bias in AI-generated scores or feedback, please report it to support@vocaid.ai. We investigate all bias reports and take corrective action where warranted.

    5. Verbot der Emotionserkennung

    Vocaid verwendet in keinem seiner KI-Systeme Emotionserkennung, Emotionsinferenz oder Affective Computing. Dieses Verbot ist ein grundlegendes Designprinzip, nicht lediglich eine Compliance-Maßnahme.

    Das EU-KI-Gesetz (Artikel 5(1)(f)), in Kraft seit dem 2. Februar 2025, verbietet ausdrücklich den Einsatz von KI-Systemen, die Emotionen am Arbeitsplatz und in Bildungseinrichtungen ableiten, außer für medizinische oder Sicherheitszwecke. Die Verhaltensanalysefunktionen von Vocaid erzeugen ausschließlich sachliche, beobachtbare Ergebnisse:

    • Prozentsatz der Blickkontaktkonsistenz (gemessen an der Blickrichtung relativ zur Kamera)
    • Haltungsindikatoren (Kopfposition, Schulterausrichtung, erkannt aus Videobildern)
    • Antwortzeitmessungen (Dauer zwischen Frage und Antwort)
    • Blickverfolgungsdaten als Heatmap (Richtung der visuellen Aufmerksamkeit)

    Diese Ergebnisse beschreiben beobachtbare physische Verhaltensweisen und leiten KEINE inneren emotionalen Zustände wie Selbstvertrauen, Nervosität, Stress, Begeisterung oder andere affektive Merkmale ab. Unsere Verhaltensanalyse unterscheidet sich grundlegend von der Emotionserkennung, da sie misst, was eine Person tut, nicht was sie fühlt.

    Striktes Verbot

    Die Entwicklungsstandards von Vocaid verbieten jede Modellausgabe-Bezeichnung, die emotionale Inferenz impliziert. Alle Ergebnisse der Verhaltensanalyse werden überprüft, um sicherzustellen, dass sie nur sachliche Beobachtungen beschreiben. Ein Verstoß gegen das Verbot der Emotionserkennung des EU-KI-Gesetzes wird mit Strafen von bis zu 35 Millionen EUR oder 7% des weltweiten Jahresumsatzes geahndet.

    6. Regulatorische Compliance

    Vocaid arbeitet in Übereinstimmung mit KI-Regulierungsrahmen in mehreren Rechtsordnungen. Nachfolgend finden Sie die spezifischen Verpflichtungen und unsere Compliance-Maßnahmen für jede geltende Regulierung.

    EU-KI-Gesetz Compliance

    Vocaid wird als Hochrisiko-KI-System gemäß Anhang III, Kategorie 4 (Beschäftigung, Arbeitnehmerverwaltung und Zugang zur Selbstständigkeit) des EU-KI-Gesetzes (Verordnung (EU) 2024/1689) eingestuft. Als Anbieter von KI-gestützten Einstellungsbewertungsinstrumenten unterliegen wir den Anforderungen von Kapitel 3, Abschnitt 2.

    • Risikomanagementsystem (Art. 9): Wir führen ein dokumentiertes Risikomanagementsystem, das Risiken über den gesamten Lebenszyklus des KI-Systems identifiziert, bewertet und mindert
    • Daten-Governance (Art. 10): Trainings-, Validierungs- und Testdatensätze unterliegen Daten-Governance- und Managementpraktiken, die Qualität, Repräsentativität und Bias-Erkennung sicherstellen
    • Technische Dokumentation (Art. 11): Wir führen umfassende technische Dokumentation, die unsere KI-Systeme, ihre Fähigkeiten, Einschränkungen und die verwendeten Methoden beschreibt
    • Aufzeichnungspflicht (Art. 12): Automatische Protokollierung des KI-Systembetriebs ermöglicht die Rückverfolgbarkeit des Systemverhaltens
    • Transparenz (Art. 13): Diese KI-Transparenzseite erfüllt unsere Transparenzpflichten durch Bereitstellung klarer Informationen über Systemfähigkeiten und -einschränkungen
    • Menschliche Aufsicht (Art. 14): Alle KI-generierten Bewertungen sind beratend. Menschliche Entscheidungsträger (Einstellungsmanager) behalten die Entscheidungsbefugnis über Beschäftigungsentscheidungen. Überschreibungsmöglichkeiten sind in B2B-Workflows integriert.
    • Genauigkeit, Robustheit und Cybersicherheit (Art. 15): Wir implementieren Maßnahmen zur Sicherstellung angemessener Niveaus von Genauigkeit, Robustheit und Cybersicherheit
    • Grundrechte-Folgenabschätzung (Art. 27): Wir verpflichten uns zur Durchführung von Grundrechte-Folgenabschätzungen vor dem Einsatz in EU-Märkten

    Die Konformitätsbewertung und EU-Datenbankregistrierung (Art. 60) sind in Bearbeitung, mit einem Zielabschlussdatum, das auf die Frist für Hochrisikoverpflichtungen am 2. August 2026 ausgerichtet ist. Die Kommission kann diese Frist für bestimmte Anbieter bis zum 2. Dezember 2027 verlängern.

    Emotion Recognition

    Das Verbot der Emotionserkennung in KI-Systemen am Arbeitsplatz (Art. 5(1)(f)) gilt seit dem 2. Februar 2025. Vocaid hat niemals Emotionserkennung eingesetzt und bestätigt die vollständige Einhaltung dieses Verbots.

    Colorado AI Act (SB 24-205)

    Der Colorado AI Act, in Kraft seit dem 1. Februar 2026, legt Verpflichtungen für Entwickler und Betreiber von Hochrisiko-KI-Systemen fest. Als Entwickler von KI-Einstellungsbewertungsinstrumenten erkennt Vocaid folgende Verpflichtungen an:

    • Entwickler-Offenlegung: Wir stellen Betreibern (Arbeitgebern, die unsere Plattform nutzen) Dokumentation zur Verfügung, die die beabsichtigten Verwendungszwecke, bekannten Einschränkungen und Risikominderungsmaßnahmen unserer KI-Systeme beschreibt
    • Risikomanagement: Wir pflegen angemessene Risikomanagementpraktiken zur Bewältigung bekannter oder vernünftigerweise vorhersehbarer Risiken algorithmischer Diskriminierung
    • Verbraucherbenachrichtigung: Verbraucher (Kandidaten) werden benachrichtigt, wenn ein Hochrisiko-KI-System eine folgenschwere Entscheidung über sie trifft oder wesentlich beeinflusst
    • Compliance-Erklärung: Wir werden auf unserer Website eine Erklärung veröffentlichen, die die Arten von Hochrisiko-KI-Systemen zusammenfasst, die wir entwickeln, und wie wir Risiken algorithmischer Diskriminierung handhaben
    • Zusammenarbeit mit dem Generalstaatsanwalt: Wir werden mit dem Generalstaatsanwalt von Colorado bei der Bewertung der Compliance zusammenarbeiten und auf Anfrage Dokumentation bereitstellen

    Betreiber (Arbeitgeber) von Vocaid haben unabhängige Verpflichtungen gemäß dem Colorado AI Act, einschließlich der Durchführung von Folgenabschätzungen und der Bereitstellung von Verbraucherbenachrichtigungen. Wir unterstützen Betreiber bei der Erfüllung ihrer Verpflichtungen durch unsere Plattformdokumentation und Transparenztools.

    Texas Responsible AI Governance Act

    Der Texas Responsible AI Governance Act, in Kraft seit dem 1. Januar 2026, verpflichtet Unternehmen, die KI-Systeme in Texas einsetzen, zur Führung von KI-Governance-Rahmenwerken. Vocaid erfüllt die folgenden Anforderungen:

    • KI-Governance-Rahmenwerk: Wir führen interne Dokumentation unserer KI-Governance-Praktiken, die dem Generalstaatsanwalt von Texas auf Anfrage zur Verfügung steht
    • Verbotene Verwendungen: Unsere KI-Systeme fördern keine Selbstschädigung, kriminelle Aktivitäten oder rechtswidrige Diskriminierung
    • Transparenz: Wir stellen eine klare Offenlegung des KI-Einsatzes in unseren Einstellungsbewertungsinstrumenten bereit
    • Biometrische Daten: Wir stellen klar, wann biometrische Daten für die KI-Verarbeitung erhoben werden, und holen die entsprechende Einwilligung gemäß texanischem Recht ein

    NYC Local Law 144 (AEDT)

    Die KI-Interview- und Bewertungsplattform von Vocaid stellt ein automatisiertes Entscheidungsinstrument für die Beschäftigung (AEDT) gemäß NYC Local Law 144 dar. Wir erfüllen die folgenden Anforderungen:

    • Jährliches Bias-Audit: Wir verpflichten uns zur Durchführung eines unabhängigen Bias-Audits durch einen qualifizierten Drittprüfer, der die Auswahlraten nach Geschlecht, Rasse/Ethnizität und intersektionalen Kategorien analysiert
    • Öffentliche Zusammenfassung: Die Zusammenfassung des Bias-Audits wird innerhalb von 6 Monaten nach Abschluss jedes Audits öffentlich auf unserer Website veröffentlicht
    • Kandidatenbenachrichtigung: Wir informieren Kandidaten mindestens 10 Werktage im Voraus, bevor ein AEDT bei einer Beschäftigungsentscheidung eingesetzt wird, wie in unserem Kandidatenbenachrichtigungssystem implementiert
    • Datenoffenlegung: Kandidaten können Informationen über die erhobenen Daten, deren Quelle und die Datenaufbewahrungsrichtlinie des Arbeitgebers anfordern

    Brasilien LGPD Artikel 20

    Gemäß Artikel 20 des brasilianischen Lei Geral de Proteção de Dados (LGPD) haben betroffene Personen das Recht, eine menschliche Überprüfung von Entscheidungen zu verlangen, die ausschließlich durch automatisierte Verarbeitung getroffen wurden und ihre Interessen betreffen, einschließlich Profiling. Vocaid stellt sicher:

    • Kandidaten, die von unseren KI-Systemen bewertet werden, können über unser Datenschutzcenter oder durch Kontaktaufnahme mit unserem Encarregado (Datenschutzbeauftragten) eine menschliche Überprüfung automatisierter Entscheidungen anfordern
    • Wir stellen Transparenz über die Kriterien und Verfahren der automatisierten Entscheidungsfindung bereit
    • Alle KI-Bewertungen werden als beratende Empfehlungen präsentiert, niemals als bindende Entscheidungen

    Mexiko LFPDPPP (Reform 2025)

    Die Reform des mexikanischen Bundesgesetzes zum Schutz personenbezogener Daten im Besitz Privater von 2025 führt neue Verpflichtungen für die automatisierte Entscheidungsfindung ein. Vocaid erfüllt:

    • Transparenz bei automatisierter Entscheidungsfindung: Wir legen offen, wenn automatisierte Entscheidungstechnologie bei der Bewertung von Kandidaten eingesetzt wird
    • Recht auf menschliches Eingreifen: Betroffene Personen können menschliches Eingreifen bei automatisierten Entscheidungen verlangen, die rechtliche Auswirkungen haben oder sie in ähnlich erheblicher Weise betreffen
    • Folgenabschätzung: Wir verpflichten uns zur Durchführung von Folgenabschätzungen für die automatisierte Verarbeitung personenbezogener Daten
    • Erweiterte Einwilligung: Wir holen eine spezifische, informierte Einwilligung für die Verarbeitung personenbezogener Daten durch automatisierte Entscheidungsfindung ein

    Kolumbien SIC-Rundschreiben 001/2025

    Die kolumbianische Superintendencia de Industria y Comercio (SIC) hat das Rundschreiben 001/2025 zu Anforderungen an die Verarbeitung biometrischer Daten erlassen. Für den Betrieb von Vocaid in Kolumbien:

    • Biometrische Verhältnismäßigkeit: Wir stellen sicher, dass jede Erhebung biometrischer Daten verhältnismäßig zum angegebenen Zweck ist und nicht über das streng Notwendige hinausgeht
    • Zweckbindung: Biometrische Daten werden ausschließlich zur Interviewverifizierung und Kommunikationscoaching-Feedback erhoben, nicht zur Überwachung oder laufenden Beobachtung
    • SIC-Compliance: Wir verpflichten uns zur Registrierung unserer Datenbanken beim RNBD (Registro Nacional de Bases de Datos) gemäß kolumbianischem Recht

    7. KI-Governance-Rahmenwerk

    Vocaid führt ein umfassendes KI-Governance-Rahmenwerk, das die verantwortungsvolle Entwicklung, den Einsatz und die Überwachung unserer KI-Systeme in allen Rechtsordnungen, in denen wir tätig sind, adressiert.

    Unsere Governance-Praktiken

    • Risikomanagement: Systematische Identifizierung, Bewertung und Minderung von Risiken im Zusammenhang mit unseren KI-Systemen, einschließlich der Risiken von Bias, Diskriminierung und Ungenauigkeit
    • Bias-Tests und -Überwachung: Regelmäßige Tests der KI-Ergebnisse über demografische Gruppen hinweg zur Identifizierung und Behebung unterschiedlicher Auswirkungen oder unfairer Bias-Muster
    • Kontinuierliche Überwachung: Laufende Überwachung eingesetzter KI-Systeme auf Leistungsverschlechterung, Drift und aufkommenden Bias
    • Modellversionierung: Versionskontrolle und Dokumentation aller KI-Modellupdates mit Folgenabschätzung vor dem Einsatz wesentlicher Änderungen
    • Vorfallberichterstattung: Interne Prozesse zur Meldung, Untersuchung und Behebung KI-bezogener Vorfälle, einschließlich Bias-Beschwerden, Genauigkeitsproblemen und Systemausfällen
    • Stakeholder-Engagement: Regelmäßiger Austausch mit betroffenen Stakeholdern, einschließlich Kandidaten, Arbeitgebern, Regulierungsbehörden und zivilgesellschaftlichen Organisationen

    Unser KI-Governance-Rahmenwerk ist darauf ausgelegt, sich mit der regulatorischen Landschaft weiterzuentwickeln. Wir überprüfen und aktualisieren unsere Praktiken regelmäßig, um sie an neue Anforderungen des EU-KI-Gesetzes, Colorado AI Act, Texas Responsible AI Governance Act und anderer aufkommender KI-Regulierungen anzupassen.

    8. Candidate AI Rights

    Vocaid recognizes the following rights for all individuals who interact with our AI systems:

    1

    Right to Know

    You have the right to know that AI is being used in your interview process and how it affects your assessment.

    2

    Right to Consent

    You have the right to provide informed consent before biometric data (voice patterns, facial geometry) is processed.

    3

    Right to Opt Out

    You have the right to opt out of video recording and behavioral analysis and use audio-only mode without penalty.

    4

    Right to Human Review

    You have the right to request human review of any AI-generated score or assessment.

    5

    Right to Appeal

    You have the right to contest AI-generated assessments and provide additional context.

    6

    Right to Explanation

    You have the right to receive a meaningful explanation of how your scores were generated.

    7

    Right to Data Access

    You have the right to access all data collected about you and all AI-generated outputs.

    8

    Right to Deletion

    You have the right to request permanent deletion of your interview data, recordings, and AI outputs.

    9

    Right to Non-Discrimination

    You have the right to fair treatment regardless of your race, gender, age, disability, accent, or other personal characteristics.

    10

    Right to Accommodations

    You have the right to request reasonable accommodations for disabilities that may affect AI assessment accuracy.

    6. EU AI Act Compliance (Annex IV)

    In accordance with the European Union AI Act (Regulation 2024/1689), Vocaid provides the following technical documentation for our AI systems classified under the Act. Our systems are designed to comply with transparency obligations for AI systems that interact with natural persons.

    System Information & Intended Purpose

    • Provider: Vocaid, Inc.
    • System Name: Vocaid AI Interview Platform
    • Version: Production (continuously updated)
    • Intended Purpose: AI-powered interview practice, resume scoring, and behavioral communication coaching
    • Intended Users: Job seekers (B2C) and hiring organizations (B2B)
    • EU Representative: Contact support@vocaid.ai for EU representative details
    • Risk Classification: Limited Risk (transparency obligations apply under Article 50)

    Training Data & Model Information

    • Vocaid uses third-party foundation models (Azure OpenAI GPT-4o) — we do not train custom models on user data
    • Resume scoring uses keyword and semantic matching algorithms, not machine learning classifiers
    • Behavioral analysis uses computer vision algorithms for face detection and gaze estimation, not facial recognition
    • No biometric identification or categorization is performed
    • Emotion recognition is explicitly prohibited in our systems (EU AI Act Article 5(1)(f) compliance)

    Risk Management & Mitigation

    Vocaid implements the following measures to mitigate risks associated with AI-assisted assessment:

    • Human oversight: All AI-generated scores are advisory — hiring decisions are always made by humans
    • Bias monitoring: Regular statistical analysis of score distributions across demographic groups
    • Transparency: Full disclosure of AI involvement before any assessment begins
    • Data minimization: Only data necessary for the specific assessment purpose is collected
    • User control: Users can opt out of video/behavioral analysis at any time without penalty
    • Logging: All AI decisions are logged for auditability per Article 12 requirements
    • Incident reporting: Processes in place for reporting serious incidents to relevant authorities

    For the complete technical documentation file or to submit questions regarding EU AI Act compliance, contact support@vocaid.ai. We are committed to full compliance with the Act's requirements as they enter into force.

    7. NYC Local Law 144 Compliance

    New York City Local Law 144 (2021) requires employers and employment agencies that use automated employment decision tools (AEDTs) to conduct annual independent bias audits and provide notice to candidates. Vocaid is committed to compliance with LL144 requirements.

    Applicability & Scope

    • Vocaid's AI interview scoring system qualifies as an AEDT when used by employers to substantially assist or replace discretionary decision-making in hiring
    • LL144 applies to candidates for employment opportunities in New York City
    • For B2C users (personal practice), the tool is advisory only and does not constitute an AEDT
    • For B2B employers using Vocaid to screen candidates, LL144 requirements apply

    Independent Bias Audit

    Vocaid will commission an independent bias audit before deploying our AI scoring for B2B hiring decisions in NYC. The audit will evaluate:

    • Impact ratio: Scoring rates for each race/ethnicity category compared to the most selected category
    • Impact ratio: Scoring rates for each sex category compared to the most selected category
    • Median scores: Comparison of median AI-generated scores across demographic categories
    • Selection rates: Analysis of pass/fail rates across protected categories at various score thresholds
    • Intersectional analysis: Combined race/ethnicity and sex impact ratios where data is sufficient

    Candidate Notice

    In compliance with LL144, Vocaid provides the following notice to candidates evaluated for NYC employment opportunities: An automated employment decision tool (AEDT) will be used in connection with the assessment of your job application. The AEDT evaluates your interview responses for communication clarity, technical knowledge, problem-solving ability, and relevance. You may request an alternative selection process or accommodation by contacting the employer directly or by emailing support@vocaid.ai.

    The bias audit summary will be published on this page once completed. Vocaid retains bias audit results for at least four years as required by law. For questions about LL144 compliance, contact support@vocaid.ai.

    8. Third-Party AI Services

    Vocaid uses the following third-party AI services. We maintain Data Processing Agreements with each provider to ensure your data is handled responsibly.

    • Azure OpenAI Service (Microsoft) — Powers interview conversation, question generation, and performance scoring↗
    • Deepgram — Real-time speech-to-text transcription↗
    • Azure Face API (Microsoft) — Face detection and liveness verification (not facial recognition)↗

    9. Contact Us

    For questions about our AI practices, to exercise your rights, or to report a concern:

    Email: support@vocaid.ai

    We take all AI-related inquiries seriously and aim to respond within 15 business days.