This is a courtesy translation. The English version is the legally binding document.
Last updated: 28. Februar 2026
Vocaid is committed to transparency about how artificial intelligence is used in our platform. This page provides a comprehensive overview of our AI systems, how they generate outputs, their known limitations, and your rights as a user.
We believe that every person who interacts with AI-powered hiring tools has the right to understand how those tools work and how they may affect decisions about their career.
Vocaid uses the following AI systems in its platform. Each system is described with its purpose, the data it processes, and the safeguards in place.
Conducts real-time voice-based interviews using natural language processing
Data Processed
Outputs
Known Limitations
Human Oversight
All AI-generated scores are presented as recommendations. B2B hiring managers retain full decision authority. Candidates may request human review.
Analyzes non-verbal communication signals during video interviews for coaching feedback
Data Processed
Outputs
Known Limitations
Human Oversight
Behavioral signals are supplementary coaching data only. They are never the sole basis for scoring. Users can opt out entirely and use audio-only mode.
Analyzes resume content against job descriptions to provide compatibility scoring
Data Processed
Outputs
Known Limitations
Human Oversight
ATS scores are advisory tools for resume improvement. They do not determine interview access or hiring outcomes.
Verifies that a real person is present during the interview session to prevent fraud
Data Processed
Outputs
Known Limitations
Human Oversight
Liveness verification is a binary pass/fail check. Failed verification can be retried or skipped. It does not affect interview scoring.
Vocaid's interview scoring evaluates candidates across multiple dimensions using AI analysis of their spoken responses. Scores reflect the AI's assessment of demonstrated competencies, not the person's inherent abilities.
Scoring Dimensions
Scores range from 0 to 100 and represent relative assessments. They should be interpreted as coaching feedback, not absolute measurements. Scores may vary across sessions due to question variation, AI model updates, and response differences.
We are committed to ensuring our AI systems do not discriminate against any individual or group based on protected characteristics including race, gender, age, disability, national origin, or other legally protected categories.
Our Bias Prevention Measures
If you believe you have experienced bias in AI-generated scores or feedback, please report it to support@vocaid.ai. We investigate all bias reports and take corrective action where warranted.
Vocaid verwendet in keinem seiner KI-Systeme Emotionserkennung, Emotionsinferenz oder Affective Computing. Dieses Verbot ist ein grundlegendes Designprinzip, nicht lediglich eine Compliance-Maßnahme.
Das EU-KI-Gesetz (Artikel 5(1)(f)), in Kraft seit dem 2. Februar 2025, verbietet ausdrücklich den Einsatz von KI-Systemen, die Emotionen am Arbeitsplatz und in Bildungseinrichtungen ableiten, außer für medizinische oder Sicherheitszwecke. Die Verhaltensanalysefunktionen von Vocaid erzeugen ausschließlich sachliche, beobachtbare Ergebnisse:
Diese Ergebnisse beschreiben beobachtbare physische Verhaltensweisen und leiten KEINE inneren emotionalen Zustände wie Selbstvertrauen, Nervosität, Stress, Begeisterung oder andere affektive Merkmale ab. Unsere Verhaltensanalyse unterscheidet sich grundlegend von der Emotionserkennung, da sie misst, was eine Person tut, nicht was sie fühlt.
Striktes Verbot
Die Entwicklungsstandards von Vocaid verbieten jede Modellausgabe-Bezeichnung, die emotionale Inferenz impliziert. Alle Ergebnisse der Verhaltensanalyse werden überprüft, um sicherzustellen, dass sie nur sachliche Beobachtungen beschreiben. Ein Verstoß gegen das Verbot der Emotionserkennung des EU-KI-Gesetzes wird mit Strafen von bis zu 35 Millionen EUR oder 7% des weltweiten Jahresumsatzes geahndet.
Vocaid arbeitet in Übereinstimmung mit KI-Regulierungsrahmen in mehreren Rechtsordnungen. Nachfolgend finden Sie die spezifischen Verpflichtungen und unsere Compliance-Maßnahmen für jede geltende Regulierung.
Vocaid wird als Hochrisiko-KI-System gemäß Anhang III, Kategorie 4 (Beschäftigung, Arbeitnehmerverwaltung und Zugang zur Selbstständigkeit) des EU-KI-Gesetzes (Verordnung (EU) 2024/1689) eingestuft. Als Anbieter von KI-gestützten Einstellungsbewertungsinstrumenten unterliegen wir den Anforderungen von Kapitel 3, Abschnitt 2.
Die Konformitätsbewertung und EU-Datenbankregistrierung (Art. 60) sind in Bearbeitung, mit einem Zielabschlussdatum, das auf die Frist für Hochrisikoverpflichtungen am 2. August 2026 ausgerichtet ist. Die Kommission kann diese Frist für bestimmte Anbieter bis zum 2. Dezember 2027 verlängern.
Emotion Recognition
Das Verbot der Emotionserkennung in KI-Systemen am Arbeitsplatz (Art. 5(1)(f)) gilt seit dem 2. Februar 2025. Vocaid hat niemals Emotionserkennung eingesetzt und bestätigt die vollständige Einhaltung dieses Verbots.
Der Colorado AI Act, in Kraft seit dem 1. Februar 2026, legt Verpflichtungen für Entwickler und Betreiber von Hochrisiko-KI-Systemen fest. Als Entwickler von KI-Einstellungsbewertungsinstrumenten erkennt Vocaid folgende Verpflichtungen an:
Betreiber (Arbeitgeber) von Vocaid haben unabhängige Verpflichtungen gemäß dem Colorado AI Act, einschließlich der Durchführung von Folgenabschätzungen und der Bereitstellung von Verbraucherbenachrichtigungen. Wir unterstützen Betreiber bei der Erfüllung ihrer Verpflichtungen durch unsere Plattformdokumentation und Transparenztools.
Der Texas Responsible AI Governance Act, in Kraft seit dem 1. Januar 2026, verpflichtet Unternehmen, die KI-Systeme in Texas einsetzen, zur Führung von KI-Governance-Rahmenwerken. Vocaid erfüllt die folgenden Anforderungen:
Die KI-Interview- und Bewertungsplattform von Vocaid stellt ein automatisiertes Entscheidungsinstrument für die Beschäftigung (AEDT) gemäß NYC Local Law 144 dar. Wir erfüllen die folgenden Anforderungen:
Gemäß Artikel 20 des brasilianischen Lei Geral de Proteção de Dados (LGPD) haben betroffene Personen das Recht, eine menschliche Überprüfung von Entscheidungen zu verlangen, die ausschließlich durch automatisierte Verarbeitung getroffen wurden und ihre Interessen betreffen, einschließlich Profiling. Vocaid stellt sicher:
Die Reform des mexikanischen Bundesgesetzes zum Schutz personenbezogener Daten im Besitz Privater von 2025 führt neue Verpflichtungen für die automatisierte Entscheidungsfindung ein. Vocaid erfüllt:
Die kolumbianische Superintendencia de Industria y Comercio (SIC) hat das Rundschreiben 001/2025 zu Anforderungen an die Verarbeitung biometrischer Daten erlassen. Für den Betrieb von Vocaid in Kolumbien:
Vocaid führt ein umfassendes KI-Governance-Rahmenwerk, das die verantwortungsvolle Entwicklung, den Einsatz und die Überwachung unserer KI-Systeme in allen Rechtsordnungen, in denen wir tätig sind, adressiert.
Unsere Governance-Praktiken
Unser KI-Governance-Rahmenwerk ist darauf ausgelegt, sich mit der regulatorischen Landschaft weiterzuentwickeln. Wir überprüfen und aktualisieren unsere Praktiken regelmäßig, um sie an neue Anforderungen des EU-KI-Gesetzes, Colorado AI Act, Texas Responsible AI Governance Act und anderer aufkommender KI-Regulierungen anzupassen.
Vocaid recognizes the following rights for all individuals who interact with our AI systems:
Right to Know
You have the right to know that AI is being used in your interview process and how it affects your assessment.
Right to Consent
You have the right to provide informed consent before biometric data (voice patterns, facial geometry) is processed.
Right to Opt Out
You have the right to opt out of video recording and behavioral analysis and use audio-only mode without penalty.
Right to Human Review
You have the right to request human review of any AI-generated score or assessment.
Right to Appeal
You have the right to contest AI-generated assessments and provide additional context.
Right to Explanation
You have the right to receive a meaningful explanation of how your scores were generated.
Right to Data Access
You have the right to access all data collected about you and all AI-generated outputs.
Right to Deletion
You have the right to request permanent deletion of your interview data, recordings, and AI outputs.
Right to Non-Discrimination
You have the right to fair treatment regardless of your race, gender, age, disability, accent, or other personal characteristics.
Right to Accommodations
You have the right to request reasonable accommodations for disabilities that may affect AI assessment accuracy.
In accordance with the European Union AI Act (Regulation 2024/1689), Vocaid provides the following technical documentation for our AI systems classified under the Act. Our systems are designed to comply with transparency obligations for AI systems that interact with natural persons.
System Information & Intended Purpose
Training Data & Model Information
Risk Management & Mitigation
Vocaid implements the following measures to mitigate risks associated with AI-assisted assessment:
For the complete technical documentation file or to submit questions regarding EU AI Act compliance, contact support@vocaid.ai. We are committed to full compliance with the Act's requirements as they enter into force.
New York City Local Law 144 (2021) requires employers and employment agencies that use automated employment decision tools (AEDTs) to conduct annual independent bias audits and provide notice to candidates. Vocaid is committed to compliance with LL144 requirements.
Applicability & Scope
Independent Bias Audit
Vocaid will commission an independent bias audit before deploying our AI scoring for B2B hiring decisions in NYC. The audit will evaluate:
Candidate Notice
In compliance with LL144, Vocaid provides the following notice to candidates evaluated for NYC employment opportunities: An automated employment decision tool (AEDT) will be used in connection with the assessment of your job application. The AEDT evaluates your interview responses for communication clarity, technical knowledge, problem-solving ability, and relevance. You may request an alternative selection process or accommodation by contacting the employer directly or by emailing support@vocaid.ai.
The bias audit summary will be published on this page once completed. Vocaid retains bias audit results for at least four years as required by law. For questions about LL144 compliance, contact support@vocaid.ai.
Vocaid uses the following third-party AI services. We maintain Data Processing Agreements with each provider to ensure your data is handled responsibly.
For questions about our AI practices, to exercise your rights, or to report a concern:
Email: support@vocaid.ai
We take all AI-related inquiries seriously and aim to respond within 15 business days.