सामग्री पर जाएं
Vocaid

Subscribe to our newsletter

Weekly digest of new blog posts. Unsubscribe anytime.

Vocaid

Turn interviews into measurable progress.

Product

  • Interview Practice
  • How It Works

डेवलपर्स

  • API संदर्भ
  • Vocaid Connect

Company

  • About

Legal

  • Privacy Policy
  • Terms of Use
  • कुकी नीति
  • AI पारदर्शिता
  • मेरी जानकारी न बेचें

© 2026 Vocaid. All rights reserved.

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.

    This is a courtesy translation. The English version is the legally binding document.

    AI Transparency & Candidate Rights

    Last updated: 28 फ़रवरी 2026

    Table of Contents

    Table of Contents

    1. Overview

    Vocaid is committed to transparency about how artificial intelligence is used in our platform. This page provides a comprehensive overview of our AI systems, how they generate outputs, their known limitations, and your rights as a user.

    We believe that every person who interacts with AI-powered hiring tools has the right to understand how those tools work and how they may affect decisions about their career.

    2. AI Systems Inventory

    Vocaid uses the following AI systems in its platform. Each system is described with its purpose, the data it processes, and the safeguards in place.

    Voice Interview AI

    Conducts real-time voice-based interviews using natural language processing

    Data Processed

    • •Audio input from microphone
    • •Job description and resume content
    • •Conversation context from current session

    Outputs

    • •Natural language interview questions
    • •Follow-up questions based on responses
    • •Real-time speech-to-text transcription

    Known Limitations

    • •May misunderstand heavy accents or dialects
    • •Transcription accuracy varies with audio quality
    • •Cannot assess physical demonstrations or hands-on skills
    • •Response quality depends on internet connection stability

    Human Oversight

    All AI-generated scores are presented as recommendations. B2B hiring managers retain full decision authority. Candidates may request human review.

    Behavioral Analysis

    Analyzes non-verbal communication signals during video interviews for coaching feedback

    Data Processed

    • •Video frames (sampled, not continuously stored)
    • •Face detection coordinates (not facial recognition)
    • •Gaze direction estimates
    • •Head position and movement patterns

    Outputs

    • •Eye contact consistency percentage
    • •Posture and engagement indicators
    • •Response timing metrics
    • •Gaze tracking heatmap data

    Known Limitations

    • •Accuracy depends on camera quality and lighting
    • •Cannot assess emotional state (emotion recognition is prohibited)
    • •May be less accurate for certain face shapes or skin tones
    • •Requires frontal camera position for reliable results

    Human Oversight

    Behavioral signals are supplementary coaching data only. They are never the sole basis for scoring. Users can opt out entirely and use audio-only mode.

    ATS Resume Scoring

    Analyzes resume content against job descriptions to provide compatibility scoring

    Data Processed

    • •Resume text content
    • •Job description requirements
    • •Industry-standard keyword databases

    Outputs

    • •Overall compatibility score (0-100)
    • •Keyword match analysis
    • •Missing skills identification
    • •Format and structure recommendations

    Known Limitations

    • •Cannot verify claims made in resumes
    • •May undervalue non-traditional career paths
    • •Keyword matching may miss equivalent terminology
    • •Does not assess soft skills or cultural fit

    Human Oversight

    ATS scores are advisory tools for resume improvement. They do not determine interview access or hiring outcomes.

    Liveness Detection

    Verifies that a real person is present during the interview session to prevent fraud

    Data Processed

    • •Video frames during verification
    • •Face detection coordinates
    • •Head movement tracking

    Outputs

    • •Pass/fail liveness verification result
    • •Confidence score (internal use only)

    Known Limitations

    • •May fail in poor lighting conditions
    • •Requires camera access (can be skipped with fallback)
    • •May be less reliable with certain accessories (masks, heavy makeup)

    Human Oversight

    Liveness verification is a binary pass/fail check. Failed verification can be retried or skipped. It does not affect interview scoring.

    3. Scoring Methodology

    Vocaid's interview scoring evaluates candidates across multiple dimensions using AI analysis of their spoken responses. Scores reflect the AI's assessment of demonstrated competencies, not the person's inherent abilities.

    Scoring Dimensions

    • Communication Clarity: How clearly and coherently ideas are expressed
    • Technical Knowledge: Demonstrated understanding of relevant technical concepts
    • Problem-Solving: Approach to analyzing and solving presented challenges
    • Relevance: How well responses address the specific question asked
    • Depth: Level of detail and substantive content in responses

    Scores range from 0 to 100 and represent relative assessments. They should be interpreted as coaching feedback, not absolute measurements. Scores may vary across sessions due to question variation, AI model updates, and response differences.

    4. Bias Prevention

    We are committed to ensuring our AI systems do not discriminate against any individual or group based on protected characteristics including race, gender, age, disability, national origin, or other legally protected categories.

    Our Bias Prevention Measures

    • Regular testing of AI outputs across demographic groups to identify disparate impact
    • Prohibition of emotion recognition in workplace assessment contexts (EU AI Act compliance)
    • Scoring based on content and communication quality, not voice characteristics, accent, or appearance
    • Continuous monitoring of score distributions for statistical anomalies
    • Planned independent bias audit by a qualified third-party auditor (per NYC Local Law 144 requirements)

    If you believe you have experienced bias in AI-generated scores or feedback, please report it to support@vocaid.ai. We investigate all bias reports and take corrective action where warranted.

    5. भावना पहचान प्रतिबंध

    Vocaid अपने किसी भी AI सिस्टम में भावना पहचान, भावना अनुमान, या भावात्मक कंप्यूटिंग का उपयोग नहीं करती। यह प्रतिबंध एक मूल डिज़ाइन सिद्धांत है, न कि केवल एक अनुपालन उपाय।

    EU AI अधिनियम (अनुच्छेद 5(1)(f)), 2 फरवरी 2025 से प्रभावी, कार्यस्थल और शैक्षणिक संस्थानों में भावनाओं का अनुमान लगाने वाली AI प्रणालियों के उपयोग को स्पष्ट रूप से प्रतिबंधित करता है, सिवाय चिकित्सा या सुरक्षा उद्देश्यों के। Vocaid की व्यवहार विश्लेषण सुविधाएँ केवल तथ्यात्मक, अवलोकन योग्य आउटपुट उत्पन्न करती हैं:

    • आँखों के संपर्क की निरंतरता प्रतिशत (कैमरे के सापेक्ष दृष्टि दिशा द्वारा मापा गया)
    • मुद्रा संकेतक (वीडियो फ़्रेम से पता लगाई गई सिर की स्थिति, कंधे की संरेखण)
    • प्रतिक्रिया समय मेट्रिक्स (प्रश्न और उत्तर के बीच की अवधि)
    • दृष्टि ट्रैकिंग हीटमैप डेटा (दृश्य ध्यान की दिशा)

    ये आउटपुट अवलोकन योग्य शारीरिक व्यवहारों का वर्णन करते हैं और आत्मविश्वास, घबराहट, तनाव, उत्साह, या किसी अन्य भावात्मक विशेषता जैसी आंतरिक भावनात्मक अवस्थाओं का अनुमान नहीं लगाते। हमारा व्यवहार विश्लेषण भावना पहचान से मौलिक रूप से भिन्न है क्योंकि यह मापता है कि एक व्यक्ति क्या करता है, न कि वह क्या महसूस करता है।

    सख्त प्रतिबंध

    Vocaid के इंजीनियरिंग मानक किसी भी मॉडल आउटपुट लेबल को प्रतिबंधित करते हैं जो भावनात्मक अनुमान का संकेत देता है। सभी व्यवहार विश्लेषण आउटपुट की समीक्षा यह सुनिश्चित करने के लिए की जाती है कि वे केवल तथ्यात्मक अवलोकनों का वर्णन करें। EU AI अधिनियम भावना पहचान प्रतिबंध के उल्लंघन पर 35 मिलियन यूरो या वैश्विक वार्षिक टर्नओवर के 7% तक का जुर्माना लगता है।

    6. नियामक अनुपालन

    Vocaid कई क्षेत्राधिकारों में AI नियामक ढांचों के अनुपालन में काम करती है। नीचे प्रत्येक लागू विनियमन के लिए विशिष्ट दायित्व और हमारे अनुपालन उपाय दिए गए हैं।

    EU AI अधिनियम अनुपालन

    Vocaid को EU AI अधिनियम (विनियमन (EU) 2024/1689) के अनुबंध III, श्रेणी 4 (रोज़गार, श्रमिक प्रबंधन और स्व-रोज़गार तक पहुँच) के तहत एक उच्च-जोखिम AI प्रणाली के रूप में वर्गीकृत किया गया है। AI-संचालित भर्ती मूल्यांकन उपकरणों के प्रदाता के रूप में, हम अध्याय 3, खंड 2 की आवश्यकताओं के अधीन हैं।

    • जोखिम प्रबंधन प्रणाली (अनुच्छेद 9): हम एक प्रलेखित जोखिम प्रबंधन प्रणाली बनाए रखते हैं जो AI प्रणाली जीवनचक्र में जोखिमों की पहचान, मूल्यांकन और शमन करती है
    • डेटा शासन (अनुच्छेद 10): प्रशिक्षण, सत्यापन और परीक्षण डेटा सेट गुणवत्ता, प्रतिनिधित्व और पूर्वाग्रह का पता लगाने को सुनिश्चित करने वाली डेटा शासन और प्रबंधन प्रथाओं के अधीन हैं
    • तकनीकी प्रलेखन (अनुच्छेद 11): हम व्यापक तकनीकी प्रलेखन बनाए रखते हैं जो हमारी AI प्रणालियों, उनकी क्षमताओं, सीमाओं और उपयोग की गई कार्यप्रणालियों का वर्णन करता है
    • रिकॉर्ड-रखना (अनुच्छेद 12): AI प्रणाली संचालन का स्वचालित लॉगिंग प्रणाली व्यवहार की ट्रेसबिलिटी सक्षम करता है
    • पारदर्शिता (अनुच्छेद 13): यह AI पारदर्शिता पृष्ठ प्रणाली क्षमताओं और सीमाओं के बारे में स्पष्ट जानकारी प्रदान करके हमारे पारदर्शिता दायित्वों को पूरा करता है
    • मानव निगरानी (अनुच्छेद 14): सभी AI-जनित स्कोर सलाहकार हैं। मानव निर्णय-निर्माता (भर्ती प्रबंधक) रोज़गार निर्णयों पर अधिकार बनाए रखते हैं। B2B कार्यप्रवाह में ओवरराइड क्षमताएँ अंतर्निहित हैं।
    • सटीकता, मजबूती और साइबर सुरक्षा (अनुच्छेद 15): हम सटीकता, मजबूती और साइबर सुरक्षा के उचित स्तर सुनिश्चित करने के लिए उपाय लागू करते हैं
    • मौलिक अधिकार प्रभाव मूल्यांकन (अनुच्छेद 27): हम EU बाज़ारों में तैनाती से पहले मौलिक अधिकार प्रभाव मूल्यांकन करने के लिए प्रतिबद्ध हैं

    अनुरूपता मूल्यांकन और EU डेटाबेस पंजीकरण (अनुच्छेद 60) प्रगति पर है, जिसका लक्ष्य 2 अगस्त 2026 के उच्च-जोखिम दायित्व समय सीमा के साथ संरेखित है। आयोग कुछ प्रदाताओं के लिए इस समय सीमा को 2 दिसंबर 2027 तक विलंबित कर सकता है।

    Emotion Recognition

    कार्यस्थल AI प्रणालियों में भावना पहचान पर प्रतिबंध (अनुच्छेद 5(1)(f)) 2 फरवरी 2025 से लागू है। Vocaid ने कभी भावना पहचान का उपयोग नहीं किया है और इस प्रतिबंध के पूर्ण अनुपालन की पुष्टि करती है।

    कोलोराडो AI अधिनियम (SB 24-205)

    कोलोराडो AI अधिनियम, 1 फरवरी 2026 से प्रभावी, उच्च-जोखिम AI प्रणालियों के डेवलपर्स और तैनातकर्ताओं के लिए दायित्व स्थापित करता है। AI भर्ती मूल्यांकन उपकरणों के डेवलपर के रूप में, Vocaid निम्नलिखित दायित्वों को स्वीकार करती है:

    • डेवलपर प्रकटीकरण: हम तैनातकर्ताओं (हमारे प्लेटफ़ॉर्म का उपयोग करने वाले नियोक्ताओं) को हमारी AI प्रणालियों के इच्छित उपयोग, ज्ञात सीमाओं और जोखिम शमन उपायों का वर्णन करने वाला प्रलेखन प्रदान करते हैं
    • जोखिम प्रबंधन: हम एल्गोरिथमिक भेदभाव के ज्ञात या यथोचित पूर्वानुमेय जोखिमों को संबोधित करने के लिए उचित जोखिम प्रबंधन प्रथाएँ बनाए रखते हैं
    • उपभोक्ता अधिसूचना: उपभोक्ताओं (उम्मीदवारों) को सूचित किया जाता है जब कोई उच्च-जोखिम AI प्रणाली उनके बारे में एक महत्वपूर्ण निर्णय लेती है या उसे काफी हद तक प्रभावित करती है
    • अनुपालन विवरण: हम अपनी वेबसाइट पर एक विवरण उपलब्ध कराएंगे जो हमारे द्वारा विकसित उच्च-जोखिम AI प्रणालियों के प्रकारों और हम एल्गोरिथमिक भेदभाव के जोखिमों का प्रबंधन कैसे करते हैं, को सारांशित करता है
    • अटॉर्नी जनरल सहयोग: हम अनुपालन के मूल्यांकन में कोलोराडो अटॉर्नी जनरल के साथ सहयोग करेंगे और अनुरोध पर प्रलेखन प्रदान करेंगे

    Vocaid के तैनातकर्ताओं (नियोक्ताओं) के कोलोराडो AI अधिनियम के तहत स्वतंत्र दायित्व हैं, जिसमें प्रभाव मूल्यांकन करना और उपभोक्ता अधिसूचना प्रदान करना शामिल है। हम अपने प्लेटफ़ॉर्म प्रलेखन और पारदर्शिता उपकरणों के माध्यम से तैनातकर्ताओं को उनके दायित्वों को पूरा करने में सहायता करते हैं।

    टेक्सास जिम्मेदार AI शासन अधिनियम

    टेक्सास जिम्मेदार AI शासन अधिनियम, 1 जनवरी 2026 से प्रभावी, टेक्सास में AI प्रणालियों को तैनात करने वाली कंपनियों से AI शासन ढांचा बनाए रखने की आवश्यकता है। Vocaid निम्नलिखित आवश्यकताओं का अनुपालन करती है:

    • AI शासन ढांचा: हम अपने AI शासन प्रथाओं का आंतरिक प्रलेखन बनाए रखते हैं, जो अनुरोध पर टेक्सास अटॉर्नी जनरल को उपलब्ध है
    • प्रतिबंधित उपयोग: हमारी AI प्रणालियाँ आत्म-हानि, आपराधिक गतिविधि, या गैरकानूनी भेदभाव को प्रोत्साहित नहीं करतीं
    • पारदर्शिता: हम अपने भर्ती मूल्यांकन उपकरणों में AI उपयोग का स्पष्ट प्रकटीकरण प्रदान करते हैं
    • बायोमेट्रिक डेटा: हम स्पष्ट करते हैं कि AI प्रसंस्करण के लिए बायोमेट्रिक डेटा कब एकत्र किया जाता है और टेक्सास कानून के तहत उचित सहमति प्राप्त करते हैं

    NYC स्थानीय कानून 144 (AEDT)

    Vocaid की AI साक्षात्कार और स्कोरिंग प्लेटफ़ॉर्म NYC स्थानीय कानून 144 के तहत एक स्वचालित रोज़गार निर्णय उपकरण (AEDT) का गठन करती है। हम निम्नलिखित आवश्यकताओं का अनुपालन करते हैं:

    • वार्षिक पूर्वाग्रह ऑडिट: हम एक योग्य तृतीय-पक्ष ऑडिटर द्वारा एक स्वतंत्र पूर्वाग्रह ऑडिट करने के लिए प्रतिबद्ध हैं, जो लिंग, जाति/जातीयता और अंतर-अनुभागीय श्रेणियों के अनुसार चयन दरों का विश्लेषण करता है
    • सार्वजनिक सारांश: पूर्वाग्रह ऑडिट सारांश प्रत्येक ऑडिट के पूरा होने के 6 महीने के भीतर हमारी वेबसाइट पर सार्वजनिक रूप से पोस्ट किया जाएगा
    • उम्मीदवार अधिसूचना: हम उम्मीदवारों को रोज़गार निर्णय में AEDT का उपयोग किए जाने से कम से कम 10 कार्य दिवस पहले नोटिस प्रदान करते हैं, जैसा कि हमारे उम्मीदवार अधिसूचना प्रणाली में लागू किया गया है
    • डेटा प्रकटीकरण: उम्मीदवार एकत्र किए गए डेटा, ऐसे डेटा के स्रोत और नियोक्ता की डेटा प्रतिधारण नीति के बारे में जानकारी का अनुरोध कर सकते हैं

    ब्राज़ील LGPD अनुच्छेद 20

    ब्राज़ील के Lei Geral de Proteção de Dados (LGPD) के अनुच्छेद 20 के तहत, डेटा विषयों को पूरी तरह से स्वचालित प्रसंस्करण के माध्यम से लिए गए निर्णयों की मानवीय समीक्षा का अनुरोध करने का अधिकार है जो उनके हितों को प्रभावित करते हैं, जिसमें प्रोफाइलिंग शामिल है। Vocaid सुनिश्चित करती है:

    • हमारी AI प्रणालियों द्वारा मूल्यांकित उम्मीदवार हमारे गोपनीयता केंद्र के माध्यम से या हमारे Encarregado (DPO) से संपर्क करके स्वचालित निर्णयों की मानवीय समीक्षा का अनुरोध कर सकते हैं
    • हम स्वचालित निर्णय लेने में उपयोग किए गए मानदंडों और प्रक्रियाओं के बारे में पारदर्शिता प्रदान करते हैं
    • सभी AI स्कोर सलाहकार सिफारिशों के रूप में प्रस्तुत किए जाते हैं, कभी बाध्यकारी निर्णयों के रूप में नहीं

    मेक्सिको LFPDPPP (2025 सुधार)

    मेक्सिको के निजी पक्षों द्वारा रखे गए व्यक्तिगत डेटा के संरक्षण पर संघीय कानून के 2025 सुधार ने स्वचालित निर्णय लेने के लिए नए दायित्व प्रस्तुत किए हैं। Vocaid निम्नलिखित का अनुपालन करती है:

    • स्वचालित निर्णय लेने की पारदर्शिता: हम उम्मीदवारों के मूल्यांकन में स्वचालित निर्णय लेने की तकनीक के उपयोग का खुलासा करते हैं
    • मानव हस्तक्षेप का अधिकार: डेटा विषय उन स्वचालित निर्णयों में मानव हस्तक्षेप का अनुरोध कर सकते हैं जो कानूनी प्रभाव उत्पन्न करते हैं या उन्हें समान रूप से काफी हद तक प्रभावित करते हैं
    • प्रभाव मूल्यांकन: हम व्यक्तिगत डेटा की स्वचालित प्रसंस्करण के लिए प्रभाव मूल्यांकन करने के लिए प्रतिबद्ध हैं
    • संवर्धित सहमति: हम स्वचालित निर्णय लेने के माध्यम से व्यक्तिगत डेटा की प्रसंस्करण के लिए विशिष्ट, सूचित सहमति प्राप्त करते हैं

    कोलंबिया SIC सर्कुलर 001/2025

    कोलंबियाई Superintendencia de Industria y Comercio (SIC) ने बायोमेट्रिक डेटा प्रसंस्करण आवश्यकताओं को संबोधित करते हुए सर्कुलर 001/2025 जारी किया। कोलंबिया में Vocaid के संचालन के लिए:

    • बायोमेट्रिक आनुपातिकता: हम सुनिश्चित करते हैं कि कोई भी बायोमेट्रिक डेटा संग्रह बताए गए उद्देश्य के अनुपात में है और जो सख्ती से आवश्यक है उससे अधिक नहीं है
    • उद्देश्य सीमा: बायोमेट्रिक डेटा केवल साक्षात्कार सत्यापन और संचार कोचिंग फीडबैक के लिए एकत्र किया जाता है, निगरानी या चालू मॉनिटरिंग के लिए नहीं

    7. AI शासन ढांचा

    Vocaid एक व्यापक AI शासन ढांचा बनाए रखती है जो हमारी AI प्रणालियों के जिम्मेदार विकास, तैनाती और निगरानी को संबोधित करता है जहाँ भी हम संचालित होते हैं।

    हमारी शासन प्रथाएँ

    • जोखिम प्रबंधन: हमारी AI प्रणालियों से जुड़े जोखिमों की व्यवस्थित पहचान, मूल्यांकन और शमन, जिसमें पूर्वाग्रह, भेदभाव और अशुद्धि के जोखिम शामिल हैं
    • पूर्वाग्रह परीक्षण और निगरानी: असमान प्रभाव या अनुचित पूर्वाग्रह पैटर्न की पहचान और समाधान के लिए जनसांख्यिकीय समूहों में AI आउटपुट का नियमित परीक्षण
    • निरंतर निगरानी: प्रदर्शन गिरावट, ड्रिफ्ट और उभरते पूर्वाग्रह के लिए तैनात AI प्रणालियों की चालू निगरानी
    • मॉडल संस्करण: सभी AI मॉडल अपडेट का संस्करण नियंत्रण और प्रलेखन, महत्वपूर्ण परिवर्तनों की तैनाती से पहले प्रभाव मूल्यांकन के साथ
    • घटना रिपोर्टिंग: AI-संबंधित घटनाओं की रिपोर्टिंग, जाँच और उपचार के लिए आंतरिक प्रक्रियाएँ, जिसमें पूर्वाग्रह शिकायतें, सटीकता के मुद्दे और सिस्टम विफलताएँ शामिल हैं
    • हितधारक सहभागिता: प्रभावित हितधारकों के साथ नियमित जुड़ाव जिसमें उम्मीदवार, नियोक्ता, नियामक और नागरिक समाज संगठन शामिल हैं

    हमारा AI शासन ढांचा नियामक परिदृश्य के साथ विकसित होने के लिए डिज़ाइन किया गया है। हम EU AI अधिनियम, कोलोराडो AI अधिनियम, टेक्सास जिम्मेदार AI शासन अधिनियम और अन्य उभरते AI नियमों के तहत नई आवश्यकताओं के साथ संरेखित करने के लिए नियमित रूप से अपनी प्रथाओं की समीक्षा और अपडेट करते हैं।

    8. Candidate AI Rights

    Vocaid recognizes the following rights for all individuals who interact with our AI systems:

    1

    Right to Know

    You have the right to know that AI is being used in your interview process and how it affects your assessment.

    2

    Right to Consent

    You have the right to provide informed consent before biometric data (voice patterns, facial geometry) is processed.

    3

    Right to Opt Out

    You have the right to opt out of video recording and behavioral analysis and use audio-only mode without penalty.

    4

    Right to Human Review

    You have the right to request human review of any AI-generated score or assessment.

    5

    Right to Appeal

    You have the right to contest AI-generated assessments and provide additional context.

    6

    Right to Explanation

    You have the right to receive a meaningful explanation of how your scores were generated.

    7

    Right to Data Access

    You have the right to access all data collected about you and all AI-generated outputs.

    8

    Right to Deletion

    You have the right to request permanent deletion of your interview data, recordings, and AI outputs.

    9

    Right to Non-Discrimination

    You have the right to fair treatment regardless of your race, gender, age, disability, accent, or other personal characteristics.

    10

    Right to Accommodations

    You have the right to request reasonable accommodations for disabilities that may affect AI assessment accuracy.

    6. EU AI Act Compliance (Annex IV)

    In accordance with the European Union AI Act (Regulation 2024/1689), Vocaid provides the following technical documentation for our AI systems classified under the Act. Our systems are designed to comply with transparency obligations for AI systems that interact with natural persons.

    System Information & Intended Purpose

    • Provider: Vocaid, Inc.
    • System Name: Vocaid AI Interview Platform
    • Version: Production (continuously updated)
    • Intended Purpose: AI-powered interview practice, resume scoring, and behavioral communication coaching
    • Intended Users: Job seekers (B2C) and hiring organizations (B2B)
    • EU Representative: Contact support@vocaid.ai for EU representative details
    • Risk Classification: Limited Risk (transparency obligations apply under Article 50)

    Training Data & Model Information

    • Vocaid uses third-party foundation models (Azure OpenAI GPT-4o) — we do not train custom models on user data
    • Resume scoring uses keyword and semantic matching algorithms, not machine learning classifiers
    • Behavioral analysis uses computer vision algorithms for face detection and gaze estimation, not facial recognition
    • No biometric identification or categorization is performed
    • Emotion recognition is explicitly prohibited in our systems (EU AI Act Article 5(1)(f) compliance)

    Risk Management & Mitigation

    Vocaid implements the following measures to mitigate risks associated with AI-assisted assessment:

    • Human oversight: All AI-generated scores are advisory — hiring decisions are always made by humans
    • Bias monitoring: Regular statistical analysis of score distributions across demographic groups
    • Transparency: Full disclosure of AI involvement before any assessment begins
    • Data minimization: Only data necessary for the specific assessment purpose is collected
    • User control: Users can opt out of video/behavioral analysis at any time without penalty
    • Logging: All AI decisions are logged for auditability per Article 12 requirements
    • Incident reporting: Processes in place for reporting serious incidents to relevant authorities

    For the complete technical documentation file or to submit questions regarding EU AI Act compliance, contact support@vocaid.ai. We are committed to full compliance with the Act's requirements as they enter into force.

    7. NYC Local Law 144 Compliance

    New York City Local Law 144 (2021) requires employers and employment agencies that use automated employment decision tools (AEDTs) to conduct annual independent bias audits and provide notice to candidates. Vocaid is committed to compliance with LL144 requirements.

    Applicability & Scope

    • Vocaid's AI interview scoring system qualifies as an AEDT when used by employers to substantially assist or replace discretionary decision-making in hiring
    • LL144 applies to candidates for employment opportunities in New York City
    • For B2C users (personal practice), the tool is advisory only and does not constitute an AEDT
    • For B2B employers using Vocaid to screen candidates, LL144 requirements apply

    Independent Bias Audit

    Vocaid will commission an independent bias audit before deploying our AI scoring for B2B hiring decisions in NYC. The audit will evaluate:

    • Impact ratio: Scoring rates for each race/ethnicity category compared to the most selected category
    • Impact ratio: Scoring rates for each sex category compared to the most selected category
    • Median scores: Comparison of median AI-generated scores across demographic categories
    • Selection rates: Analysis of pass/fail rates across protected categories at various score thresholds
    • Intersectional analysis: Combined race/ethnicity and sex impact ratios where data is sufficient

    Candidate Notice

    In compliance with LL144, Vocaid provides the following notice to candidates evaluated for NYC employment opportunities: An automated employment decision tool (AEDT) will be used in connection with the assessment of your job application. The AEDT evaluates your interview responses for communication clarity, technical knowledge, problem-solving ability, and relevance. You may request an alternative selection process or accommodation by contacting the employer directly or by emailing support@vocaid.ai.

    The bias audit summary will be published on this page once completed. Vocaid retains bias audit results for at least four years as required by law. For questions about LL144 compliance, contact support@vocaid.ai.

    8. Third-Party AI Services

    Vocaid uses the following third-party AI services. We maintain Data Processing Agreements with each provider to ensure your data is handled responsibly.

    • Azure OpenAI Service (Microsoft) — Powers interview conversation, question generation, and performance scoring↗
    • Deepgram — Real-time speech-to-text transcription↗
    • Azure Face API (Microsoft) — Face detection and liveness verification (not facial recognition)↗

    9. Contact Us

    For questions about our AI practices, to exercise your rights, or to report a concern:

    Email: support@vocaid.ai

    We take all AI-related inquiries seriously and aim to respond within 15 business days.