Ceci est une traduction de courtoisie. La version anglaise est le document juridiquement contraignant.
Dernière mise à jour: 28 février 2026
Vocaid s'engage à la transparence sur la manière dont l'intelligence artificielle est utilisée dans notre plateforme. Cette page fournit une vue d'ensemble complète de nos systèmes d'IA, comment ils génèrent des résultats, leurs limitations connues et vos droits en tant qu'utilisateur.
Nous croyons que toute personne qui interagit avec des outils de recrutement alimentés par l'IA a le droit de comprendre comment ces outils fonctionnent et comment ils peuvent affecter les décisions concernant sa carrière.
Vocaid utilise les systèmes d'IA suivants dans sa plateforme. Chaque système est décrit avec sa finalité, les données qu'il traite et les garanties mises en place.
Mène des entretiens vocaux en temps réel utilisant le traitement du langage naturel
Data Processed
Outputs
Known Limitations
Human Oversight
Tous les scores générés par l'IA sont présentés comme des recommandations. Les responsables du recrutement B2B conservent la pleine autorité décisionnelle. Les candidats peuvent demander une révision humaine.
Analyse les signaux de communication non verbale pendant les entretiens vidéo pour fournir des retours de coaching
Data Processed
Outputs
Known Limitations
Human Oversight
Les signaux comportementaux sont des données de coaching complémentaires uniquement. Ils ne constituent jamais la seule base de notation. Les utilisateurs peuvent choisir de ne pas participer et utiliser le mode audio uniquement.
Analyse le contenu du CV par rapport aux descriptions de poste pour fournir une notation de compatibilité
Data Processed
Outputs
Known Limitations
Human Oversight
Les scores ATS sont des outils consultatifs pour l'amélioration du CV. Ils ne déterminent pas l'accès aux entretiens ni les résultats de recrutement.
Vérifie qu'une personne réelle est présente pendant la session d'entretien pour prévenir la fraude
Data Processed
Outputs
Known Limitations
Human Oversight
La vérification de vivacité est une vérification binaire réussi/échoué. La vérification échouée peut être retentée ou ignorée. Elle n'affecte pas la notation de l'entretien.
La notation des entretiens de Vocaid évalue les candidats sur plusieurs dimensions à l'aide de l'analyse par IA de leurs réponses orales. Les scores reflètent l'évaluation par l'IA des compétences démontrées, et non les capacités inhérentes de la personne.
Dimensions de notation
Les scores vont de 0 à 100 et représentent des évaluations relatives. Ils doivent être interprétés comme des retours de coaching, et non comme des mesures absolues. Les scores peuvent varier d'une session à l'autre en raison de la variation des questions, des mises à jour du modèle d'IA et des différences de réponses.
Nous nous engageons à garantir que nos systèmes d'IA ne discriminent aucun individu ou groupe sur la base de caractéristiques protégées, y compris la race, le genre, l'âge, le handicap, l'origine nationale ou d'autres catégories légalement protégées.
Nos mesures de prévention des biais
Si vous pensez avoir subi un biais dans les scores ou retours générés par l'IA, signalez-le à support@vocaid.ai. Nous enquêtons sur tous les signalements de biais et prenons des mesures correctives lorsque cela est justifié.
Vocaid N'UTILISE PAS la reconnaissance d'émotions, l'inférence d'émotions ni l'informatique affective dans aucun de ses systèmes d'IA. Cette interdiction est un principe de conception fondamental, et non simplement une mesure de conformité.
Le AI Act de l'UE (Article 5(1)(f)), en vigueur depuis le 2 février 2025, interdit explicitement l'utilisation de systèmes d'IA qui infèrent les émotions sur le lieu de travail et dans les établissements d'enseignement, sauf à des fins médicales ou de sécurité. Les fonctionnalités d'analyse comportementale de Vocaid ne produisent que des résultats factuels et observables :
Ces résultats décrivent des comportements physiques observables et N'INFÈRENT PAS d'états émotionnels internes tels que la confiance, la nervosité, le stress, l'enthousiasme ou toute autre caractéristique affective. Notre analyse comportementale est fondamentalement différente de la reconnaissance d'émotions car elle mesure ce qu'une personne fait, et non ce qu'elle ressent.
Interdiction stricte
Les normes d'ingénierie de Vocaid interdisent tout libellé de résultat de modèle qui implique une inférence émotionnelle. Tous les résultats d'analyse comportementale sont examinés pour s'assurer qu'ils ne décrivent que des observations factuelles. La violation de l'interdiction de la reconnaissance d'émotions du AI Act de l'UE est passible de sanctions pouvant atteindre 35 millions d'euros ou 7 % du chiffre d'affaires annuel mondial.
Vocaid opère en conformité avec les cadres réglementaires en matière d'IA dans de nombreuses juridictions. Vous trouverez ci-dessous les obligations spécifiques et nos mesures de conformité pour chaque réglementation applicable.
Vocaid est classé comme un système d'IA à haut risque en vertu de l'Annexe III, Catégorie 4 (Emploi, gestion des travailleurs et accès au travail indépendant) du AI Act de l'UE (Règlement (UE) 2024/1689). En tant que fournisseur d'outils d'évaluation pour le recrutement alimentés par l'IA, nous sommes soumis aux exigences du Chapitre 3, Section 2.
L'évaluation de conformité et l'enregistrement dans la base de données de l'UE (Art. 60) sont en cours, avec un objectif d'achèvement aligné sur l'échéance des obligations à haut risque du 2 août 2026. La Commission peut reporter cette échéance au 2 décembre 2027 pour certains fournisseurs.
Emotion Recognition
L'interdiction de la reconnaissance d'émotions dans les systèmes d'IA en milieu professionnel (Art. 5(1)(f)) est en vigueur depuis le 2 février 2025. Vocaid n'a jamais utilisé la reconnaissance d'émotions et confirme sa pleine conformité avec cette interdiction.
La loi sur l'IA du Colorado, en vigueur depuis le 1er février 2026, établit des obligations pour les développeurs et déployeurs de systèmes d'IA à haut risque. En tant que développeur d'outils d'évaluation pour le recrutement alimentés par l'IA, Vocaid reconnaît les obligations suivantes :
Les déployeurs de Vocaid (employeurs) ont des obligations indépendantes en vertu de la loi sur l'IA du Colorado, notamment la réalisation d'évaluations d'impact et la notification aux consommateurs. Nous aidons les déployeurs à remplir leurs obligations grâce à la documentation de notre plateforme et à nos outils de transparence.
La loi texane sur la gouvernance responsable de l'IA, en vigueur depuis le 1er janvier 2026, exige des entreprises déployant des systèmes d'IA au Texas qu'elles maintiennent des cadres de gouvernance de l'IA. Vocaid se conforme aux exigences suivantes :
La plateforme d'entretien et de notation par IA de Vocaid constitue un outil automatisé de décision en matière d'emploi (AEDT) en vertu de la NYC Local Law 144. Nous nous conformons aux exigences suivantes :
En vertu de l'article 20 de la Lei Geral de Proteção de Dados (LGPD) du Brésil, les personnes concernées ont le droit de demander un examen humain des décisions prises uniquement par traitement automatisé qui affectent leurs intérêts, y compris le profilage. Vocaid garantit :
La réforme de 2025 de la loi fédérale mexicaine sur la protection des données personnelles détenues par des particuliers introduit de nouvelles obligations en matière de prise de décision automatisée. Vocaid se conforme aux exigences suivantes :
La Superintendencia de Industria y Comercio (SIC) de Colombie a publié la Circulaire 001/2025 portant sur les exigences de traitement des données biométriques. Pour les opérations de Vocaid en Colombie :
Vocaid maintient un cadre de gouvernance de l'IA complet qui traite du développement, du déploiement et du suivi responsables de nos systèmes d'IA dans toutes les juridictions où nous opérons.
Nos pratiques de gouvernance
Notre cadre de gouvernance de l'IA est conçu pour évoluer avec le paysage réglementaire. Nous révisons et mettons à jour régulièrement nos pratiques pour les aligner sur les nouvelles exigences du AI Act de l'UE, de la loi sur l'IA du Colorado, de la loi texane sur la gouvernance responsable de l'IA et d'autres réglementations émergentes en matière d'IA.
Vocaid reconnaît les droits suivants pour toutes les personnes qui interagissent avec nos systèmes d'IA :
Droit de savoir
Vous avez le droit de savoir que l'IA est utilisée dans votre processus d'entretien et comment elle affecte votre évaluation.
Droit au consentement
Vous avez le droit de donner un consentement éclairé avant le traitement de données biométriques (modèles vocaux, géométrie faciale).
Droit de refus
Vous avez le droit de refuser l'enregistrement vidéo et l'analyse comportementale et d'utiliser le mode audio uniquement sans pénalité.
Droit à la révision humaine
Vous avez le droit de demander la révision humaine de tout score ou évaluation généré par l'IA.
Droit d'appel
Vous avez le droit de contester les évaluations générées par l'IA et de fournir un contexte supplémentaire.
Droit à l'explication
Vous avez le droit de recevoir une explication significative de la manière dont vos scores ont été générés.
Droit d'accès aux données
Vous avez le droit d'accéder à toutes les données collectées vous concernant et à tous les résultats générés par l'IA.
Droit de suppression
Vous avez le droit de demander la suppression permanente de vos données d'entretien, enregistrements et résultats d'IA.
Droit à la non-discrimination
Vous avez le droit à un traitement équitable indépendamment de votre race, genre, âge, handicap, accent ou autres caractéristiques personnelles.
Droit aux aménagements
Vous avez le droit de demander des aménagements raisonnables pour les handicaps susceptibles d'affecter la précision de l'évaluation par l'IA.
In accordance with the European Union AI Act (Regulation 2024/1689), Vocaid provides the following technical documentation for our AI systems classified under the Act. Our systems are designed to comply with transparency obligations for AI systems that interact with natural persons.
System Information & Intended Purpose
Training Data & Model Information
Risk Management & Mitigation
Vocaid implements the following measures to mitigate risks associated with AI-assisted assessment:
For the complete technical documentation file or to submit questions regarding EU AI Act compliance, contact support@vocaid.ai. We are committed to full compliance with the Act's requirements as they enter into force.
New York City Local Law 144 (2021) requires employers and employment agencies that use automated employment decision tools (AEDTs) to conduct annual independent bias audits and provide notice to candidates. Vocaid is committed to compliance with LL144 requirements.
Applicability & Scope
Independent Bias Audit
Vocaid will commission an independent bias audit before deploying our AI scoring for B2B hiring decisions in NYC. The audit will evaluate:
Candidate Notice
In compliance with LL144, Vocaid provides the following notice to candidates evaluated for NYC employment opportunities: An automated employment decision tool (AEDT) will be used in connection with the assessment of your job application. The AEDT evaluates your interview responses for communication clarity, technical knowledge, problem-solving ability, and relevance. You may request an alternative selection process or accommodation by contacting the employer directly or by emailing support@vocaid.ai.
The bias audit summary will be published on this page once completed. Vocaid retains bias audit results for at least four years as required by law. For questions about LL144 compliance, contact support@vocaid.ai.
Vocaid utilise les services d'IA tiers suivants. Nous maintenons des Accords de Traitement des Données avec chaque fournisseur pour garantir que vos données sont traitées de manière responsable.
Pour des questions sur nos pratiques en matière d'IA, pour exercer vos droits ou pour signaler une préoccupation :
E-mail : support@vocaid.ai
Nous prenons toutes les demandes liées à l'IA au sérieux et nous nous efforçons de répondre dans les 15 jours ouvrables.