This is a courtesy translation. The English version is the legally binding document.
Last updated: 28 февраля 2026 г.
Vocaid is committed to transparency about how artificial intelligence is used in our platform. This page provides a comprehensive overview of our AI systems, how they generate outputs, their known limitations, and your rights as a user.
We believe that every person who interacts with AI-powered hiring tools has the right to understand how those tools work and how they may affect decisions about their career.
Vocaid uses the following AI systems in its platform. Each system is described with its purpose, the data it processes, and the safeguards in place.
Conducts real-time voice-based interviews using natural language processing
Data Processed
Outputs
Known Limitations
Human Oversight
All AI-generated scores are presented as recommendations. B2B hiring managers retain full decision authority. Candidates may request human review.
Analyzes non-verbal communication signals during video interviews for coaching feedback
Data Processed
Outputs
Known Limitations
Human Oversight
Behavioral signals are supplementary coaching data only. They are never the sole basis for scoring. Users can opt out entirely and use audio-only mode.
Analyzes resume content against job descriptions to provide compatibility scoring
Data Processed
Outputs
Known Limitations
Human Oversight
ATS scores are advisory tools for resume improvement. They do not determine interview access or hiring outcomes.
Verifies that a real person is present during the interview session to prevent fraud
Data Processed
Outputs
Known Limitations
Human Oversight
Liveness verification is a binary pass/fail check. Failed verification can be retried or skipped. It does not affect interview scoring.
Vocaid's interview scoring evaluates candidates across multiple dimensions using AI analysis of their spoken responses. Scores reflect the AI's assessment of demonstrated competencies, not the person's inherent abilities.
Scoring Dimensions
Scores range from 0 to 100 and represent relative assessments. They should be interpreted as coaching feedback, not absolute measurements. Scores may vary across sessions due to question variation, AI model updates, and response differences.
We are committed to ensuring our AI systems do not discriminate against any individual or group based on protected characteristics including race, gender, age, disability, national origin, or other legally protected categories.
Our Bias Prevention Measures
If you believe you have experienced bias in AI-generated scores or feedback, please report it to support@vocaid.ai. We investigate all bias reports and take corrective action where warranted.
Vocaid НЕ использует распознавание эмоций, выведение эмоций или аффективные вычисления ни в одной из своих систем ИИ. Этот запрет является основополагающим принципом проектирования, а не просто мерой соответствия.
Закон ЕС об ИИ (Статья 5(1)(f)), вступивший в силу 2 февраля 2025 года, прямо запрещает использование систем ИИ, которые выводят эмоции, на рабочих местах и в образовательных учреждениях, за исключением медицинских или аварийных целей. Функции поведенческого анализа Vocaid создают только фактические, наблюдаемые результаты:
Эти результаты описывают наблюдаемое физическое поведение и НЕ выводят внутренние эмоциональные состояния, такие как уверенность, нервозность, стресс, энтузиазм или любые другие аффективные характеристики. Наш поведенческий анализ принципиально отличается от распознавания эмоций, поскольку он измеряет то, что человек делает, а не то, что он чувствует.
Строгий запрет
Инженерные стандарты Vocaid запрещают любые обозначения результатов моделей, подразумевающие выведение эмоций. Все результаты поведенческого анализа проверяются на предмет того, чтобы они описывали только фактические наблюдения. Нарушение запрета Закона ЕС об ИИ на распознавание эмоций влечёт штрафы до 35 миллионов евро или 7% мирового годового оборота.
Vocaid работает в соответствии с нормативными базами регулирования ИИ в нескольких юрисдикциях. Ниже приведены конкретные обязательства и наши меры по обеспечению соответствия для каждого применимого регламента.
Vocaid классифицируется как система ИИ высокого риска в соответствии с Приложением III, Категория 4 (Занятость, управление работниками и доступ к самозанятости) Закона ЕС об ИИ (Регламент (ЕС) 2024/1689). Как поставщик инструментов оценки найма на основе ИИ, мы подчиняемся требованиям Главы 3, Раздела 2.
Оценка соответствия и регистрация в базе данных ЕС (Ст. 60) находятся в процессе, с планируемым завершением в соответствии с крайним сроком обязательств для систем высокого риска — 2 августа 2026 года. Комиссия может перенести этот срок на 2 декабря 2027 года для некоторых поставщиков.
Emotion Recognition
Запрет на распознавание эмоций в системах ИИ на рабочих местах (Ст. 5(1)(f)) действует с 2 февраля 2025 года. Vocaid никогда не использовал распознавание эмоций и подтверждает полное соответствие данному запрету.
Закон Колорадо об ИИ, вступающий в силу 1 февраля 2026 года, устанавливает обязательства для разработчиков и развёртывателей систем ИИ высокого риска. Как разработчик инструментов оценки найма на основе ИИ, Vocaid признаёт следующие обязательства:
Развёртыватели Vocaid (работодатели) имеют независимые обязательства в соответствии с Законом Колорадо об ИИ, включая проведение оценок воздействия и уведомление потребителей. Мы поддерживаем развёртывателей в выполнении их обязательств посредством документации нашей платформы и инструментов прозрачности.
Закон Техаса об ответственном управлении ИИ, вступивший в силу 1 января 2026 года, требует от компаний, развёртывающих системы ИИ в Техасе, поддерживать структуры управления ИИ. Vocaid соблюдает следующие требования:
Платформа ИИ-собеседований и оценки Vocaid является автоматизированным инструментом принятия решений о найме (AEDT) в соответствии с NYC Local Law 144. Мы соблюдаем следующие требования:
В соответствии со Статьёй 20 Общего закона Бразилии о защите данных (LGPD) субъекты данных имеют право запросить пересмотр человеком решений, принятых исключительно посредством автоматизированной обработки, которые затрагивают их интересы, включая профилирование. Vocaid обеспечивает:
Реформа 2025 года Федерального закона Мексики о защите персональных данных, находящихся в распоряжении частных лиц, вводит новые обязательства в отношении автоматизированного принятия решений. Vocaid соблюдает:
Суперинтенденция промышленности и торговли Колумбии (SIC) издала Циркуляр 001/2025, касающийся требований к обработке биометрических данных. Для деятельности Vocaid в Колумбии:
Vocaid поддерживает комплексную структуру управления ИИ, которая охватывает ответственную разработку, развёртывание и мониторинг наших систем ИИ во всех юрисдикциях, где мы работаем.
Наши практики управления
Наша структура управления ИИ разработана с учётом развития нормативной базы. Мы регулярно пересматриваем и обновляем наши практики для соответствия новым требованиям Закона ЕС об ИИ, Закона Колорадо об ИИ, Закона Техаса об ответственном управлении ИИ и других формирующихся нормативных актов в области ИИ.
Vocaid recognizes the following rights for all individuals who interact with our AI systems:
Right to Know
You have the right to know that AI is being used in your interview process and how it affects your assessment.
Right to Consent
You have the right to provide informed consent before biometric data (voice patterns, facial geometry) is processed.
Right to Opt Out
You have the right to opt out of video recording and behavioral analysis and use audio-only mode without penalty.
Right to Human Review
You have the right to request human review of any AI-generated score or assessment.
Right to Appeal
You have the right to contest AI-generated assessments and provide additional context.
Right to Explanation
You have the right to receive a meaningful explanation of how your scores were generated.
Right to Data Access
You have the right to access all data collected about you and all AI-generated outputs.
Right to Deletion
You have the right to request permanent deletion of your interview data, recordings, and AI outputs.
Right to Non-Discrimination
You have the right to fair treatment regardless of your race, gender, age, disability, accent, or other personal characteristics.
Right to Accommodations
You have the right to request reasonable accommodations for disabilities that may affect AI assessment accuracy.
In accordance with the European Union AI Act (Regulation 2024/1689), Vocaid provides the following technical documentation for our AI systems classified under the Act. Our systems are designed to comply with transparency obligations for AI systems that interact with natural persons.
System Information & Intended Purpose
Training Data & Model Information
Risk Management & Mitigation
Vocaid implements the following measures to mitigate risks associated with AI-assisted assessment:
For the complete technical documentation file or to submit questions regarding EU AI Act compliance, contact support@vocaid.ai. We are committed to full compliance with the Act's requirements as they enter into force.
New York City Local Law 144 (2021) requires employers and employment agencies that use automated employment decision tools (AEDTs) to conduct annual independent bias audits and provide notice to candidates. Vocaid is committed to compliance with LL144 requirements.
Applicability & Scope
Independent Bias Audit
Vocaid will commission an independent bias audit before deploying our AI scoring for B2B hiring decisions in NYC. The audit will evaluate:
Candidate Notice
In compliance with LL144, Vocaid provides the following notice to candidates evaluated for NYC employment opportunities: An automated employment decision tool (AEDT) will be used in connection with the assessment of your job application. The AEDT evaluates your interview responses for communication clarity, technical knowledge, problem-solving ability, and relevance. You may request an alternative selection process or accommodation by contacting the employer directly or by emailing support@vocaid.ai.
The bias audit summary will be published on this page once completed. Vocaid retains bias audit results for at least four years as required by law. For questions about LL144 compliance, contact support@vocaid.ai.
Vocaid uses the following third-party AI services. We maintain Data Processing Agreements with each provider to ensure your data is handled responsibly.
For questions about our AI practices, to exercise your rights, or to report a concern:
Email: support@vocaid.ai
We take all AI-related inquiries seriously and aim to respond within 15 business days.