This is a courtesy translation. The English version is the legally binding document.
Last updated: 28 فبراير 2026
Vocaid is committed to transparency about how artificial intelligence is used in our platform. This page provides a comprehensive overview of our AI systems, how they generate outputs, their known limitations, and your rights as a user.
We believe that every person who interacts with AI-powered hiring tools has the right to understand how those tools work and how they may affect decisions about their career.
Vocaid uses the following AI systems in its platform. Each system is described with its purpose, the data it processes, and the safeguards in place.
Conducts real-time voice-based interviews using natural language processing
Data Processed
Outputs
Known Limitations
Human Oversight
All AI-generated scores are presented as recommendations. B2B hiring managers retain full decision authority. Candidates may request human review.
Analyzes non-verbal communication signals during video interviews for coaching feedback
Data Processed
Outputs
Known Limitations
Human Oversight
Behavioral signals are supplementary coaching data only. They are never the sole basis for scoring. Users can opt out entirely and use audio-only mode.
Analyzes resume content against job descriptions to provide compatibility scoring
Data Processed
Outputs
Known Limitations
Human Oversight
ATS scores are advisory tools for resume improvement. They do not determine interview access or hiring outcomes.
Verifies that a real person is present during the interview session to prevent fraud
Data Processed
Outputs
Known Limitations
Human Oversight
Liveness verification is a binary pass/fail check. Failed verification can be retried or skipped. It does not affect interview scoring.
Vocaid's interview scoring evaluates candidates across multiple dimensions using AI analysis of their spoken responses. Scores reflect the AI's assessment of demonstrated competencies, not the person's inherent abilities.
Scoring Dimensions
Scores range from 0 to 100 and represent relative assessments. They should be interpreted as coaching feedback, not absolute measurements. Scores may vary across sessions due to question variation, AI model updates, and response differences.
We are committed to ensuring our AI systems do not discriminate against any individual or group based on protected characteristics including race, gender, age, disability, national origin, or other legally protected categories.
Our Bias Prevention Measures
If you believe you have experienced bias in AI-generated scores or feedback, please report it to support@vocaid.ai. We investigate all bias reports and take corrective action where warranted.
لا تستخدم Vocaid التعرف على المشاعر أو استنتاج المشاعر أو الحوسبة العاطفية في أي من أنظمة الذكاء الاصطناعي الخاصة بها. هذا الحظر هو مبدأ تصميمي أساسي، وليس مجرد إجراء امتثال.
يحظر قانون الذكاء الاصطناعي للاتحاد الأوروبي (المادة 5(1)(و))، الساري اعتبارًا من 2 فبراير 2025، صراحةً استخدام أنظمة الذكاء الاصطناعي التي تستنتج المشاعر في مكان العمل والمؤسسات التعليمية، باستثناء الأغراض الطبية أو السلامة. تنتج ميزات التحليل السلوكي لدى Vocaid فقط مخرجات واقعية وقابلة للملاحظة:
تصف هذه المخرجات سلوكيات جسدية قابلة للملاحظة ولا تستنتج حالات عاطفية داخلية مثل الثقة أو التوتر أو الضغط أو الحماس أو أي خاصية عاطفية أخرى. يختلف تحليلنا السلوكي اختلافًا جوهريًا عن التعرف على المشاعر لأنه يقيس ما يفعله الشخص، وليس ما يشعر به.
حظر صارم
تحظر معايير الهندسة لدى Vocaid أي تسمية مخرجات نموذج تشير إلى استنتاج عاطفي. تتم مراجعة جميع مخرجات التحليل السلوكي لضمان أنها تصف فقط ملاحظات واقعية. يترتب على انتهاك حظر التعرف على المشاعر في قانون الذكاء الاصطناعي للاتحاد الأوروبي عقوبات تصل إلى 35 مليون يورو أو 7% من حجم الأعمال السنوي العالمي.
تعمل Vocaid وفقًا لأطر تنظيم الذكاء الاصطناعي في ولايات قضائية متعددة. فيما يلي الالتزامات المحددة وإجراءات الامتثال لدينا لكل لائحة معمول بها.
تُصنَّف Vocaid كنظام ذكاء اصطناعي عالي المخاطر بموجب الملحق الثالث، الفئة 4 (التوظيف وإدارة العمال والوصول إلى العمل الحر) من قانون الذكاء الاصطناعي للاتحاد الأوروبي (اللائحة (EU) 2024/1689). بصفتنا مزود أدوات تقييم التوظيف المدعومة بالذكاء الاصطناعي، نخضع لمتطلبات الفصل 3، القسم 2.
تقييم المطابقة والتسجيل في قاعدة بيانات الاتحاد الأوروبي (المادة 60) قيد التنفيذ، مع هدف إتمام متوافق مع الموعد النهائي لالتزامات المخاطر العالية في 2 أغسطس 2026. قد تؤجل المفوضية هذا الموعد النهائي إلى 2 ديسمبر 2027 لبعض المزودين.
Emotion Recognition
حظر التعرف على المشاعر في أنظمة الذكاء الاصطناعي في مكان العمل (المادة 5(1)(و)) ساري المفعول منذ 2 فبراير 2025. لم تستخدم Vocaid أبدًا التعرف على المشاعر وتؤكد الامتثال الكامل لهذا الحظر.
يحدد قانون كولورادو للذكاء الاصطناعي، الساري اعتبارًا من 1 فبراير 2026، التزامات لمطوري وناشري أنظمة الذكاء الاصطناعي عالية المخاطر. بصفتنا مطور أدوات تقييم التوظيف بالذكاء الاصطناعي، تقر Vocaid بالالتزامات التالية:
يتحمل ناشرو Vocaid (أصحاب العمل) التزامات مستقلة بموجب قانون كولورادو للذكاء الاصطناعي، بما في ذلك إجراء تقييمات التأثير وتقديم إشعار المستهلك. ندعم الناشرين في الوفاء بالتزاماتهم من خلال وثائق منصتنا وأدوات الشفافية.
يتطلب قانون تكساس لحوكمة الذكاء الاصطناعي المسؤول، الساري اعتبارًا من 1 يناير 2026، من الشركات التي تنشر أنظمة الذكاء الاصطناعي في تكساس الاحتفاظ بأطر حوكمة الذكاء الاصطناعي. تمتثل Vocaid للمتطلبات التالية:
تشكل منصة المقابلات والتقييم بالذكاء الاصطناعي الخاصة بـ Vocaid أداة اتخاذ قرار وظيفي آلية (AEDT) بموجب القانون المحلي 144 لمدينة نيويورك. نمتثل للمتطلبات التالية:
بموجب المادة 20 من القانون العام لحماية البيانات في البرازيل (LGPD)، يحق لأصحاب البيانات طلب مراجعة بشرية للقرارات المتخذة فقط من خلال المعالجة الآلية التي تؤثر على مصالحهم، بما في ذلك التنميط. تضمن Vocaid:
يقدم إصلاح 2025 للقانون الفيدرالي المكسيكي لحماية البيانات الشخصية التي يحتفظ بها القطاع الخاص التزامات جديدة لاتخاذ القرار الآلي. تمتثل Vocaid لما يلي:
أصدرت هيئة الرقابة على الصناعة والتجارة الكولومبية (SIC) التعميم 001/2025 الذي يتناول متطلبات معالجة البيانات البيومترية. فيما يتعلق بعمليات Vocaid في كولومبيا:
تحتفظ Vocaid بإطار شامل لحوكمة الذكاء الاصطناعي يتناول التطوير المسؤول والنشر والمراقبة لأنظمة الذكاء الاصطناعي لدينا في جميع الولايات القضائية التي نعمل فيها.
ممارسات الحوكمة لدينا
تم تصميم إطار حوكمة الذكاء الاصطناعي لدينا للتطور مع المشهد التنظيمي. نراجع ونحدث ممارساتنا بانتظام لتتوافق مع المتطلبات الجديدة بموجب قانون الذكاء الاصطناعي للاتحاد الأوروبي وقانون كولورادو للذكاء الاصطناعي وقانون تكساس لحوكمة الذكاء الاصطناعي المسؤول وغيرها من لوائح الذكاء الاصطناعي الناشئة.
Vocaid recognizes the following rights for all individuals who interact with our AI systems:
Right to Know
You have the right to know that AI is being used in your interview process and how it affects your assessment.
Right to Consent
You have the right to provide informed consent before biometric data (voice patterns, facial geometry) is processed.
Right to Opt Out
You have the right to opt out of video recording and behavioral analysis and use audio-only mode without penalty.
Right to Human Review
You have the right to request human review of any AI-generated score or assessment.
Right to Appeal
You have the right to contest AI-generated assessments and provide additional context.
Right to Explanation
You have the right to receive a meaningful explanation of how your scores were generated.
Right to Data Access
You have the right to access all data collected about you and all AI-generated outputs.
Right to Deletion
You have the right to request permanent deletion of your interview data, recordings, and AI outputs.
Right to Non-Discrimination
You have the right to fair treatment regardless of your race, gender, age, disability, accent, or other personal characteristics.
Right to Accommodations
You have the right to request reasonable accommodations for disabilities that may affect AI assessment accuracy.
In accordance with the European Union AI Act (Regulation 2024/1689), Vocaid provides the following technical documentation for our AI systems classified under the Act. Our systems are designed to comply with transparency obligations for AI systems that interact with natural persons.
System Information & Intended Purpose
Training Data & Model Information
Risk Management & Mitigation
Vocaid implements the following measures to mitigate risks associated with AI-assisted assessment:
For the complete technical documentation file or to submit questions regarding EU AI Act compliance, contact support@vocaid.ai. We are committed to full compliance with the Act's requirements as they enter into force.
New York City Local Law 144 (2021) requires employers and employment agencies that use automated employment decision tools (AEDTs) to conduct annual independent bias audits and provide notice to candidates. Vocaid is committed to compliance with LL144 requirements.
Applicability & Scope
Independent Bias Audit
Vocaid will commission an independent bias audit before deploying our AI scoring for B2B hiring decisions in NYC. The audit will evaluate:
Candidate Notice
In compliance with LL144, Vocaid provides the following notice to candidates evaluated for NYC employment opportunities: An automated employment decision tool (AEDT) will be used in connection with the assessment of your job application. The AEDT evaluates your interview responses for communication clarity, technical knowledge, problem-solving ability, and relevance. You may request an alternative selection process or accommodation by contacting the employer directly or by emailing support@vocaid.ai.
The bias audit summary will be published on this page once completed. Vocaid retains bias audit results for at least four years as required by law. For questions about LL144 compliance, contact support@vocaid.ai.
Vocaid uses the following third-party AI services. We maintain Data Processing Agreements with each provider to ensure your data is handled responsibly.
For questions about our AI practices, to exercise your rights, or to report a concern:
Email: support@vocaid.ai
We take all AI-related inquiries seriously and aim to respond within 15 business days.