Перейти к содержимому
Vocaid

Subscribe to our newsletter

Weekly digest of new blog posts. Unsubscribe anytime.

Vocaid

Turn interviews into measurable progress.

Product

  • Interview Practice
  • How It Works

Разработчикам

  • Справка API
  • Vocaid Connect

Company

  • About

Legal

  • Privacy Policy
  • Terms of Use
  • Политика Cookies
  • Прозрачность ИИ
  • Не Продавать Мои Данные

© 2026 Vocaid. All rights reserved.

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.

    This is a courtesy translation. The English version is the legally binding document.

    AI Transparency & Candidate Rights

    Last updated: 28 февраля 2026 г.

    Table of Contents

    Table of Contents

    1. Overview

    Vocaid is committed to transparency about how artificial intelligence is used in our platform. This page provides a comprehensive overview of our AI systems, how they generate outputs, their known limitations, and your rights as a user.

    We believe that every person who interacts with AI-powered hiring tools has the right to understand how those tools work and how they may affect decisions about their career.

    2. AI Systems Inventory

    Vocaid uses the following AI systems in its platform. Each system is described with its purpose, the data it processes, and the safeguards in place.

    Voice Interview AI

    Conducts real-time voice-based interviews using natural language processing

    Data Processed

    • •Audio input from microphone
    • •Job description and resume content
    • •Conversation context from current session

    Outputs

    • •Natural language interview questions
    • •Follow-up questions based on responses
    • •Real-time speech-to-text transcription

    Known Limitations

    • •May misunderstand heavy accents or dialects
    • •Transcription accuracy varies with audio quality
    • •Cannot assess physical demonstrations or hands-on skills
    • •Response quality depends on internet connection stability

    Human Oversight

    All AI-generated scores are presented as recommendations. B2B hiring managers retain full decision authority. Candidates may request human review.

    Behavioral Analysis

    Analyzes non-verbal communication signals during video interviews for coaching feedback

    Data Processed

    • •Video frames (sampled, not continuously stored)
    • •Face detection coordinates (not facial recognition)
    • •Gaze direction estimates
    • •Head position and movement patterns

    Outputs

    • •Eye contact consistency percentage
    • •Posture and engagement indicators
    • •Response timing metrics
    • •Gaze tracking heatmap data

    Known Limitations

    • •Accuracy depends on camera quality and lighting
    • •Cannot assess emotional state (emotion recognition is prohibited)
    • •May be less accurate for certain face shapes or skin tones
    • •Requires frontal camera position for reliable results

    Human Oversight

    Behavioral signals are supplementary coaching data only. They are never the sole basis for scoring. Users can opt out entirely and use audio-only mode.

    ATS Resume Scoring

    Analyzes resume content against job descriptions to provide compatibility scoring

    Data Processed

    • •Resume text content
    • •Job description requirements
    • •Industry-standard keyword databases

    Outputs

    • •Overall compatibility score (0-100)
    • •Keyword match analysis
    • •Missing skills identification
    • •Format and structure recommendations

    Known Limitations

    • •Cannot verify claims made in resumes
    • •May undervalue non-traditional career paths
    • •Keyword matching may miss equivalent terminology
    • •Does not assess soft skills or cultural fit

    Human Oversight

    ATS scores are advisory tools for resume improvement. They do not determine interview access or hiring outcomes.

    Liveness Detection

    Verifies that a real person is present during the interview session to prevent fraud

    Data Processed

    • •Video frames during verification
    • •Face detection coordinates
    • •Head movement tracking

    Outputs

    • •Pass/fail liveness verification result
    • •Confidence score (internal use only)

    Known Limitations

    • •May fail in poor lighting conditions
    • •Requires camera access (can be skipped with fallback)
    • •May be less reliable with certain accessories (masks, heavy makeup)

    Human Oversight

    Liveness verification is a binary pass/fail check. Failed verification can be retried or skipped. It does not affect interview scoring.

    3. Scoring Methodology

    Vocaid's interview scoring evaluates candidates across multiple dimensions using AI analysis of their spoken responses. Scores reflect the AI's assessment of demonstrated competencies, not the person's inherent abilities.

    Scoring Dimensions

    • Communication Clarity: How clearly and coherently ideas are expressed
    • Technical Knowledge: Demonstrated understanding of relevant technical concepts
    • Problem-Solving: Approach to analyzing and solving presented challenges
    • Relevance: How well responses address the specific question asked
    • Depth: Level of detail and substantive content in responses

    Scores range from 0 to 100 and represent relative assessments. They should be interpreted as coaching feedback, not absolute measurements. Scores may vary across sessions due to question variation, AI model updates, and response differences.

    4. Bias Prevention

    We are committed to ensuring our AI systems do not discriminate against any individual or group based on protected characteristics including race, gender, age, disability, national origin, or other legally protected categories.

    Our Bias Prevention Measures

    • Regular testing of AI outputs across demographic groups to identify disparate impact
    • Prohibition of emotion recognition in workplace assessment contexts (EU AI Act compliance)
    • Scoring based on content and communication quality, not voice characteristics, accent, or appearance
    • Continuous monitoring of score distributions for statistical anomalies
    • Planned independent bias audit by a qualified third-party auditor (per NYC Local Law 144 requirements)

    If you believe you have experienced bias in AI-generated scores or feedback, please report it to support@vocaid.ai. We investigate all bias reports and take corrective action where warranted.

    5. Запрет на распознавание эмоций

    Vocaid НЕ использует распознавание эмоций, выведение эмоций или аффективные вычисления ни в одной из своих систем ИИ. Этот запрет является основополагающим принципом проектирования, а не просто мерой соответствия.

    Закон ЕС об ИИ (Статья 5(1)(f)), вступивший в силу 2 февраля 2025 года, прямо запрещает использование систем ИИ, которые выводят эмоции, на рабочих местах и в образовательных учреждениях, за исключением медицинских или аварийных целей. Функции поведенческого анализа Vocaid создают только фактические, наблюдаемые результаты:

    • Процент постоянства зрительного контакта (измеряется по направлению взгляда относительно камеры)
    • Индикаторы осанки (положение головы, выравнивание плеч, определяемые по видеокадрам)
    • Метрики времени отклика (продолжительность между вопросом и ответом)
    • Данные тепловой карты отслеживания взгляда (направление визуального внимания)

    Эти результаты описывают наблюдаемое физическое поведение и НЕ выводят внутренние эмоциональные состояния, такие как уверенность, нервозность, стресс, энтузиазм или любые другие аффективные характеристики. Наш поведенческий анализ принципиально отличается от распознавания эмоций, поскольку он измеряет то, что человек делает, а не то, что он чувствует.

    Строгий запрет

    Инженерные стандарты Vocaid запрещают любые обозначения результатов моделей, подразумевающие выведение эмоций. Все результаты поведенческого анализа проверяются на предмет того, чтобы они описывали только фактические наблюдения. Нарушение запрета Закона ЕС об ИИ на распознавание эмоций влечёт штрафы до 35 миллионов евро или 7% мирового годового оборота.

    6. Нормативное соответствие

    Vocaid работает в соответствии с нормативными базами регулирования ИИ в нескольких юрисдикциях. Ниже приведены конкретные обязательства и наши меры по обеспечению соответствия для каждого применимого регламента.

    Соответствие Закону ЕС об ИИ

    Vocaid классифицируется как система ИИ высокого риска в соответствии с Приложением III, Категория 4 (Занятость, управление работниками и доступ к самозанятости) Закона ЕС об ИИ (Регламент (ЕС) 2024/1689). Как поставщик инструментов оценки найма на основе ИИ, мы подчиняемся требованиям Главы 3, Раздела 2.

    • Система управления рисками (Ст. 9): Мы ведём документированную систему управления рисками, которая выявляет, оценивает и смягчает риски на протяжении всего жизненного цикла системы ИИ
    • Управление данными (Ст. 10): Наборы данных для обучения, валидации и тестирования подлежат практикам управления и обеспечения качества, представительности и выявления предвзятости
    • Техническая документация (Ст. 11): Мы ведём исчерпывающую техническую документацию, описывающую наши системы ИИ, их возможности, ограничения и используемые методологии
    • Ведение записей (Ст. 12): Автоматическое журналирование операций систем ИИ обеспечивает прослеживаемость поведения системы
    • Прозрачность (Ст. 13): Данная страница Прозрачности ИИ выполняет наши обязательства по прозрачности, предоставляя чёткую информацию о возможностях и ограничениях системы
    • Человеческий контроль (Ст. 14): Все оценки, сгенерированные ИИ, носят рекомендательный характер. Лица, принимающие решения о найме, сохраняют полномочия по принятию решений о трудоустройстве. Возможности отмены встроены в рабочие процессы B2B.
    • Точность, устойчивость и кибербезопасность (Ст. 15): Мы реализуем меры для обеспечения надлежащих уровней точности, устойчивости и кибербезопасности
    • Оценка воздействия на основные права (Ст. 27): Мы обязуемся проводить оценку воздействия на основные права перед развёртыванием на рынках ЕС

    Оценка соответствия и регистрация в базе данных ЕС (Ст. 60) находятся в процессе, с планируемым завершением в соответствии с крайним сроком обязательств для систем высокого риска — 2 августа 2026 года. Комиссия может перенести этот срок на 2 декабря 2027 года для некоторых поставщиков.

    Emotion Recognition

    Запрет на распознавание эмоций в системах ИИ на рабочих местах (Ст. 5(1)(f)) действует с 2 февраля 2025 года. Vocaid никогда не использовал распознавание эмоций и подтверждает полное соответствие данному запрету.

    Закон Колорадо об ИИ (SB 24-205)

    Закон Колорадо об ИИ, вступающий в силу 1 февраля 2026 года, устанавливает обязательства для разработчиков и развёртывателей систем ИИ высокого риска. Как разработчик инструментов оценки найма на основе ИИ, Vocaid признаёт следующие обязательства:

    • Раскрытие информации разработчиком: Мы предоставляем развёртывателям (работодателям, использующим нашу платформу) документацию, описывающую предполагаемое использование, известные ограничения и меры по снижению рисков наших систем ИИ
    • Управление рисками: Мы поддерживаем разумные практики управления рисками для устранения известных или разумно предвидимых рисков алгоритмической дискриминации
    • Уведомление потребителей: Потребители (кандидаты) уведомляются, когда система ИИ высокого риска принимает или существенно влияет на важное решение в их отношении
    • Заявление о соответствии: Мы опубликуем на нашем веб-сайте заявление, обобщающее типы систем ИИ высокого риска, которые мы разрабатываем, и методы управления рисками алгоритмической дискриминации
    • Сотрудничество с Генеральным прокурором: Мы будем сотрудничать с Генеральным прокурором Колорадо в оценке соответствия и предоставлять документацию по запросу

    Развёртыватели Vocaid (работодатели) имеют независимые обязательства в соответствии с Законом Колорадо об ИИ, включая проведение оценок воздействия и уведомление потребителей. Мы поддерживаем развёртывателей в выполнении их обязательств посредством документации нашей платформы и инструментов прозрачности.

    Закон Техаса об ответственном управлении ИИ

    Закон Техаса об ответственном управлении ИИ, вступивший в силу 1 января 2026 года, требует от компаний, развёртывающих системы ИИ в Техасе, поддерживать структуры управления ИИ. Vocaid соблюдает следующие требования:

    • Структура управления ИИ: Мы ведём внутреннюю документацию наших практик управления ИИ, доступную Генеральному прокурору Техаса по запросу
    • Запрещённое использование: Наши системы ИИ не поощряют причинение вреда самому себе, преступную деятельность или незаконную дискриминацию
    • Прозрачность: Мы предоставляем чёткое раскрытие информации об использовании ИИ в наших инструментах оценки найма
    • Биометрические данные: Мы разъясняем, когда биометрические данные собираются для обработки ИИ, и получаем надлежащее согласие в соответствии с законодательством Техаса

    NYC Local Law 144 (AEDT)

    Платформа ИИ-собеседований и оценки Vocaid является автоматизированным инструментом принятия решений о найме (AEDT) в соответствии с NYC Local Law 144. Мы соблюдаем следующие требования:

    • Ежегодный аудит предвзятости: Мы обязуемся проводить независимый аудит предвзятости квалифицированным сторонним аудитором, анализируя показатели отбора по полу, расе/этнической принадлежности и пересекающимся категориям
    • Публичная сводка: Сводка аудита предвзятости будет опубликована на нашем веб-сайте в течение 6 месяцев после завершения каждого аудита
    • Уведомление кандидатов: Мы уведомляем кандидатов не менее чем за 10 рабочих дней до использования AEDT при принятии решения о найме, как реализовано в нашей системе уведомления кандидатов
    • Раскрытие данных: Кандидаты могут запросить информацию о собираемых данных, их источнике и политике хранения данных работодателя

    Статья 20 LGPD Бразилии

    В соответствии со Статьёй 20 Общего закона Бразилии о защите данных (LGPD) субъекты данных имеют право запросить пересмотр человеком решений, принятых исключительно посредством автоматизированной обработки, которые затрагивают их интересы, включая профилирование. Vocaid обеспечивает:

    • Кандидаты, оценённые нашими системами ИИ, могут запросить пересмотр автоматизированных решений человеком через наш Центр конфиденциальности или связавшись с нашим Encarregado (DPO)
    • Мы обеспечиваем прозрачность в отношении критериев и процедур, используемых при автоматизированном принятии решений
    • Все оценки ИИ представляются как рекомендательные, а не как обязывающие решения

    LFPDPPP Мексики (Реформа 2025)

    Реформа 2025 года Федерального закона Мексики о защите персональных данных, находящихся в распоряжении частных лиц, вводит новые обязательства в отношении автоматизированного принятия решений. Vocaid соблюдает:

    • Прозрачность автоматизированного принятия решений: Мы раскрываем информацию о применении технологии автоматизированного принятия решений при оценке кандидатов
    • Право на вмешательство человека: Субъекты данных могут запросить вмешательство человека в автоматизированные решения, которые производят юридические последствия или аналогично существенно их затрагивают
    • Оценка воздействия: Мы обязуемся проводить оценку воздействия при автоматизированной обработке персональных данных
    • Расширенное согласие: Мы получаем конкретное, информированное согласие на обработку персональных данных посредством автоматизированного принятия решений

    Циркуляр SIC Колумбии 001/2025

    Суперинтенденция промышленности и торговли Колумбии (SIC) издала Циркуляр 001/2025, касающийся требований к обработке биометрических данных. Для деятельности Vocaid в Колумбии:

    • Пропорциональность биометрии: Мы обеспечиваем, чтобы любой сбор биометрических данных был пропорционален заявленной цели и не превышал строго необходимого
    • Ограничение целей: Биометрические данные собираются исключительно для верификации собеседования и обратной связи по коммуникативному коучингу, а не для наблюдения или постоянного мониторинга
    • Соответствие SIC: Мы обязуемся зарегистрировать наши базы данных в RNBD (Registro Nacional de Bases de Datos), как того требует законодательство Колумбии

    7. Структура управления ИИ

    Vocaid поддерживает комплексную структуру управления ИИ, которая охватывает ответственную разработку, развёртывание и мониторинг наших систем ИИ во всех юрисдикциях, где мы работаем.

    Наши практики управления

    • Управление рисками: Систематическое выявление, оценка и смягчение рисков, связанных с нашими системами ИИ, включая риски предвзятости, дискриминации и неточности
    • Тестирование и мониторинг предвзятости: Регулярное тестирование результатов ИИ по демографическим группам для выявления и устранения неравномерного воздействия или несправедливых паттернов предвзятости
    • Непрерывный мониторинг: Постоянный мониторинг развёрнутых систем ИИ на предмет снижения производительности, дрейфа и возникающей предвзятости
    • Версионирование моделей: Контроль версий и документирование всех обновлений моделей ИИ с оценкой воздействия перед развёртыванием значительных изменений
    • Отчётность об инцидентах: Внутренние процессы отчётности, расследования и устранения инцидентов, связанных с ИИ, включая жалобы на предвзятость, проблемы точности и сбои системы
    • Взаимодействие с заинтересованными сторонами: Регулярное взаимодействие с затронутыми заинтересованными сторонами, включая кандидатов, работодателей, регуляторов и организации гражданского общества

    Наша структура управления ИИ разработана с учётом развития нормативной базы. Мы регулярно пересматриваем и обновляем наши практики для соответствия новым требованиям Закона ЕС об ИИ, Закона Колорадо об ИИ, Закона Техаса об ответственном управлении ИИ и других формирующихся нормативных актов в области ИИ.

    8. Candidate AI Rights

    Vocaid recognizes the following rights for all individuals who interact with our AI systems:

    1

    Right to Know

    You have the right to know that AI is being used in your interview process and how it affects your assessment.

    2

    Right to Consent

    You have the right to provide informed consent before biometric data (voice patterns, facial geometry) is processed.

    3

    Right to Opt Out

    You have the right to opt out of video recording and behavioral analysis and use audio-only mode without penalty.

    4

    Right to Human Review

    You have the right to request human review of any AI-generated score or assessment.

    5

    Right to Appeal

    You have the right to contest AI-generated assessments and provide additional context.

    6

    Right to Explanation

    You have the right to receive a meaningful explanation of how your scores were generated.

    7

    Right to Data Access

    You have the right to access all data collected about you and all AI-generated outputs.

    8

    Right to Deletion

    You have the right to request permanent deletion of your interview data, recordings, and AI outputs.

    9

    Right to Non-Discrimination

    You have the right to fair treatment regardless of your race, gender, age, disability, accent, or other personal characteristics.

    10

    Right to Accommodations

    You have the right to request reasonable accommodations for disabilities that may affect AI assessment accuracy.

    6. EU AI Act Compliance (Annex IV)

    In accordance with the European Union AI Act (Regulation 2024/1689), Vocaid provides the following technical documentation for our AI systems classified under the Act. Our systems are designed to comply with transparency obligations for AI systems that interact with natural persons.

    System Information & Intended Purpose

    • Provider: Vocaid, Inc.
    • System Name: Vocaid AI Interview Platform
    • Version: Production (continuously updated)
    • Intended Purpose: AI-powered interview practice, resume scoring, and behavioral communication coaching
    • Intended Users: Job seekers (B2C) and hiring organizations (B2B)
    • EU Representative: Contact support@vocaid.ai for EU representative details
    • Risk Classification: Limited Risk (transparency obligations apply under Article 50)

    Training Data & Model Information

    • Vocaid uses third-party foundation models (Azure OpenAI GPT-4o) — we do not train custom models on user data
    • Resume scoring uses keyword and semantic matching algorithms, not machine learning classifiers
    • Behavioral analysis uses computer vision algorithms for face detection and gaze estimation, not facial recognition
    • No biometric identification or categorization is performed
    • Emotion recognition is explicitly prohibited in our systems (EU AI Act Article 5(1)(f) compliance)

    Risk Management & Mitigation

    Vocaid implements the following measures to mitigate risks associated with AI-assisted assessment:

    • Human oversight: All AI-generated scores are advisory — hiring decisions are always made by humans
    • Bias monitoring: Regular statistical analysis of score distributions across demographic groups
    • Transparency: Full disclosure of AI involvement before any assessment begins
    • Data minimization: Only data necessary for the specific assessment purpose is collected
    • User control: Users can opt out of video/behavioral analysis at any time without penalty
    • Logging: All AI decisions are logged for auditability per Article 12 requirements
    • Incident reporting: Processes in place for reporting serious incidents to relevant authorities

    For the complete technical documentation file or to submit questions regarding EU AI Act compliance, contact support@vocaid.ai. We are committed to full compliance with the Act's requirements as they enter into force.

    7. NYC Local Law 144 Compliance

    New York City Local Law 144 (2021) requires employers and employment agencies that use automated employment decision tools (AEDTs) to conduct annual independent bias audits and provide notice to candidates. Vocaid is committed to compliance with LL144 requirements.

    Applicability & Scope

    • Vocaid's AI interview scoring system qualifies as an AEDT when used by employers to substantially assist or replace discretionary decision-making in hiring
    • LL144 applies to candidates for employment opportunities in New York City
    • For B2C users (personal practice), the tool is advisory only and does not constitute an AEDT
    • For B2B employers using Vocaid to screen candidates, LL144 requirements apply

    Independent Bias Audit

    Vocaid will commission an independent bias audit before deploying our AI scoring for B2B hiring decisions in NYC. The audit will evaluate:

    • Impact ratio: Scoring rates for each race/ethnicity category compared to the most selected category
    • Impact ratio: Scoring rates for each sex category compared to the most selected category
    • Median scores: Comparison of median AI-generated scores across demographic categories
    • Selection rates: Analysis of pass/fail rates across protected categories at various score thresholds
    • Intersectional analysis: Combined race/ethnicity and sex impact ratios where data is sufficient

    Candidate Notice

    In compliance with LL144, Vocaid provides the following notice to candidates evaluated for NYC employment opportunities: An automated employment decision tool (AEDT) will be used in connection with the assessment of your job application. The AEDT evaluates your interview responses for communication clarity, technical knowledge, problem-solving ability, and relevance. You may request an alternative selection process or accommodation by contacting the employer directly or by emailing support@vocaid.ai.

    The bias audit summary will be published on this page once completed. Vocaid retains bias audit results for at least four years as required by law. For questions about LL144 compliance, contact support@vocaid.ai.

    8. Third-Party AI Services

    Vocaid uses the following third-party AI services. We maintain Data Processing Agreements with each provider to ensure your data is handled responsibly.

    • Azure OpenAI Service (Microsoft) — Powers interview conversation, question generation, and performance scoring↗
    • Deepgram — Real-time speech-to-text transcription↗
    • Azure Face API (Microsoft) — Face detection and liveness verification (not facial recognition)↗

    9. Contact Us

    For questions about our AI practices, to exercise your rights, or to report a concern:

    Email: support@vocaid.ai

    We take all AI-related inquiries seriously and aim to respond within 15 business days.