Aller au contenu
Vocaid

Subscribe to our newsletter

Weekly digest of new blog posts. Unsubscribe anytime.

Vocaid

Turn interviews into measurable progress.

Product

  • Interview Practice
  • How It Works

Développeurs

  • Référence API
  • Vocaid Connect

Company

  • About

Legal

  • Privacy Policy
  • Terms of Use
  • Politique de Cookies
  • Transparence de l'IA
  • Ne Pas Vendre Mes Informations

© 2026 Vocaid. All rights reserved.

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.

    Ceci est une traduction de courtoisie. La version anglaise est le document juridiquement contraignant.

    Transparence de l'IA et Droits des candidats

    Dernière mise à jour: 28 février 2026

    Table des matières

    Table des matières

    1. Vue d'ensemble

    Vocaid s'engage à la transparence sur la manière dont l'intelligence artificielle est utilisée dans notre plateforme. Cette page fournit une vue d'ensemble complète de nos systèmes d'IA, comment ils génèrent des résultats, leurs limitations connues et vos droits en tant qu'utilisateur.

    Nous croyons que toute personne qui interagit avec des outils de recrutement alimentés par l'IA a le droit de comprendre comment ces outils fonctionnent et comment ils peuvent affecter les décisions concernant sa carrière.

    2. Inventaire des systèmes d'IA

    Vocaid utilise les systèmes d'IA suivants dans sa plateforme. Chaque système est décrit avec sa finalité, les données qu'il traite et les garanties mises en place.

    IA d'entretien vocal

    Mène des entretiens vocaux en temps réel utilisant le traitement du langage naturel

    Data Processed

    • •Entrée audio du microphone
    • •Description du poste et contenu du CV
    • •Contexte de la conversation de la session en cours

    Outputs

    • •Questions d'entretien en langage naturel
    • •Questions de suivi basées sur les réponses
    • •Transcription parole-texte en temps réel

    Known Limitations

    • •Peut mal comprendre les accents prononcés ou les dialectes
    • •La précision de la transcription varie selon la qualité audio
    • •Ne peut pas évaluer les démonstrations physiques ou les compétences pratiques
    • •La qualité des réponses dépend de la stabilité de la connexion internet

    Human Oversight

    Tous les scores générés par l'IA sont présentés comme des recommandations. Les responsables du recrutement B2B conservent la pleine autorité décisionnelle. Les candidats peuvent demander une révision humaine.

    Analyse comportementale

    Analyse les signaux de communication non verbale pendant les entretiens vidéo pour fournir des retours de coaching

    Data Processed

    • •Images vidéo (échantillonnées, non stockées en continu)
    • •Coordonnées de détection faciale (pas de reconnaissance faciale)
    • •Estimations de la direction du regard
    • •Modèles de position et de mouvement de la tête

    Outputs

    • •Pourcentage de constance du contact visuel
    • •Indicateurs de posture et d'engagement
    • •Métriques de temps de réponse
    • •Données de carte thermique du suivi du regard

    Known Limitations

    • •La précision dépend de la qualité de la caméra et de l'éclairage
    • •Ne peut pas évaluer l'état émotionnel (la reconnaissance d'émotions est interdite)
    • •Peut être moins précis pour certaines formes de visage ou tons de peau
    • •Nécessite une position frontale de la caméra pour des résultats fiables

    Human Oversight

    Les signaux comportementaux sont des données de coaching complémentaires uniquement. Ils ne constituent jamais la seule base de notation. Les utilisateurs peuvent choisir de ne pas participer et utiliser le mode audio uniquement.

    Notation de CV ATS

    Analyse le contenu du CV par rapport aux descriptions de poste pour fournir une notation de compatibilité

    Data Processed

    • •Contenu textuel du CV
    • •Exigences de la description du poste
    • •Bases de données de mots-clés standards de l'industrie

    Outputs

    • •Score de compatibilité global (0-100)
    • •Analyse de correspondance des mots-clés
    • •Identification des compétences manquantes
    • •Recommandations de format et de structure

    Known Limitations

    • •Ne peut pas vérifier les affirmations faites dans les CV
    • •Peut sous-évaluer les parcours professionnels non traditionnels
    • •La correspondance de mots-clés peut manquer la terminologie équivalente
    • •N'évalue pas les compétences relationnelles ni l'adéquation culturelle

    Human Oversight

    Les scores ATS sont des outils consultatifs pour l'amélioration du CV. Ils ne déterminent pas l'accès aux entretiens ni les résultats de recrutement.

    Détection de vivacité

    Vérifie qu'une personne réelle est présente pendant la session d'entretien pour prévenir la fraude

    Data Processed

    • •Images vidéo pendant la vérification
    • •Coordonnées de détection faciale
    • •Suivi des mouvements de la tête

    Outputs

    • •Résultat de vérification de vivacité réussi/échoué
    • •Score de confiance (usage interne uniquement)

    Known Limitations

    • •Peut échouer dans des conditions de faible éclairage
    • •Nécessite l'accès à la caméra (peut être ignoré avec une alternative)
    • •Peut être moins fiable avec certains accessoires (masques, maquillage prononcé)

    Human Oversight

    La vérification de vivacité est une vérification binaire réussi/échoué. La vérification échouée peut être retentée ou ignorée. Elle n'affecte pas la notation de l'entretien.

    3. Méthodologie de notation

    La notation des entretiens de Vocaid évalue les candidats sur plusieurs dimensions à l'aide de l'analyse par IA de leurs réponses orales. Les scores reflètent l'évaluation par l'IA des compétences démontrées, et non les capacités inhérentes de la personne.

    Dimensions de notation

    • Clarté de communication : La clarté et la cohérence avec lesquelles les idées sont exprimées
    • Connaissances techniques : Compréhension démontrée des concepts techniques pertinents
    • Résolution de problèmes : Approche pour analyser et résoudre les défis présentés
    • Pertinence : Dans quelle mesure les réponses répondent à la question spécifique posée
    • Profondeur : Niveau de détail et de contenu substantiel dans les réponses

    Les scores vont de 0 à 100 et représentent des évaluations relatives. Ils doivent être interprétés comme des retours de coaching, et non comme des mesures absolues. Les scores peuvent varier d'une session à l'autre en raison de la variation des questions, des mises à jour du modèle d'IA et des différences de réponses.

    4. Prévention des biais

    Nous nous engageons à garantir que nos systèmes d'IA ne discriminent aucun individu ou groupe sur la base de caractéristiques protégées, y compris la race, le genre, l'âge, le handicap, l'origine nationale ou d'autres catégories légalement protégées.

    Nos mesures de prévention des biais

    • Tests réguliers des résultats de l'IA sur différents groupes démographiques pour identifier l'impact disparate
    • Interdiction de la reconnaissance d'émotions dans les contextes d'évaluation professionnelle (conformité au AI Act de l'UE)
    • Notation basée sur le contenu et la qualité de communication, pas sur les caractéristiques vocales, l'accent ou l'apparence
    • Surveillance continue des distributions de scores pour détecter les anomalies statistiques
    • Audit de biais indépendant prévu par un auditeur tiers qualifié (conformément aux exigences de la loi locale 144 de NYC)

    Si vous pensez avoir subi un biais dans les scores ou retours générés par l'IA, signalez-le à support@vocaid.ai. Nous enquêtons sur tous les signalements de biais et prenons des mesures correctives lorsque cela est justifié.

    5. Interdiction de la reconnaissance d'émotions

    Vocaid N'UTILISE PAS la reconnaissance d'émotions, l'inférence d'émotions ni l'informatique affective dans aucun de ses systèmes d'IA. Cette interdiction est un principe de conception fondamental, et non simplement une mesure de conformité.

    Le AI Act de l'UE (Article 5(1)(f)), en vigueur depuis le 2 février 2025, interdit explicitement l'utilisation de systèmes d'IA qui infèrent les émotions sur le lieu de travail et dans les établissements d'enseignement, sauf à des fins médicales ou de sécurité. Les fonctionnalités d'analyse comportementale de Vocaid ne produisent que des résultats factuels et observables :

    • Pourcentage de constance du contact visuel (mesuré par la direction du regard par rapport à la caméra)
    • Indicateurs de posture (position de la tête, alignement des épaules détectés à partir des images vidéo)
    • Métriques de temps de réponse (durée entre la question et la réponse)
    • Données de carte thermique du suivi du regard (direction de l'attention visuelle)

    Ces résultats décrivent des comportements physiques observables et N'INFÈRENT PAS d'états émotionnels internes tels que la confiance, la nervosité, le stress, l'enthousiasme ou toute autre caractéristique affective. Notre analyse comportementale est fondamentalement différente de la reconnaissance d'émotions car elle mesure ce qu'une personne fait, et non ce qu'elle ressent.

    Interdiction stricte

    Les normes d'ingénierie de Vocaid interdisent tout libellé de résultat de modèle qui implique une inférence émotionnelle. Tous les résultats d'analyse comportementale sont examinés pour s'assurer qu'ils ne décrivent que des observations factuelles. La violation de l'interdiction de la reconnaissance d'émotions du AI Act de l'UE est passible de sanctions pouvant atteindre 35 millions d'euros ou 7 % du chiffre d'affaires annuel mondial.

    6. Conformité réglementaire

    Vocaid opère en conformité avec les cadres réglementaires en matière d'IA dans de nombreuses juridictions. Vous trouverez ci-dessous les obligations spécifiques et nos mesures de conformité pour chaque réglementation applicable.

    Conformité au AI Act de l'UE

    Vocaid est classé comme un système d'IA à haut risque en vertu de l'Annexe III, Catégorie 4 (Emploi, gestion des travailleurs et accès au travail indépendant) du AI Act de l'UE (Règlement (UE) 2024/1689). En tant que fournisseur d'outils d'évaluation pour le recrutement alimentés par l'IA, nous sommes soumis aux exigences du Chapitre 3, Section 2.

    • Système de gestion des risques (Art. 9) : Nous maintenons un système de gestion des risques documenté qui identifie, évalue et atténue les risques tout au long du cycle de vie du système d'IA
    • Gouvernance des données (Art. 10) : Les ensembles de données d'entraînement, de validation et de test sont soumis à des pratiques de gouvernance et de gestion des données garantissant la qualité, la représentativité et la détection des biais
    • Documentation technique (Art. 11) : Nous maintenons une documentation technique complète décrivant nos systèmes d'IA, leurs capacités, limitations et les méthodologies utilisées
    • Tenue des registres (Art. 12) : L'enregistrement automatique des opérations des systèmes d'IA permet la traçabilité du comportement du système
    • Transparence (Art. 13) : Cette page de Transparence de l'IA remplit nos obligations de transparence en fournissant des informations claires sur les capacités et limitations du système
    • Supervision humaine (Art. 14) : Tous les scores générés par l'IA sont consultatifs. Les décideurs humains (responsables du recrutement) conservent l'autorité sur les décisions d'emploi. Des capacités de substitution sont intégrées aux flux de travail B2B.
    • Exactitude, robustesse et cybersécurité (Art. 15) : Nous mettons en œuvre des mesures pour garantir des niveaux appropriés d'exactitude, de robustesse et de cybersécurité
    • Évaluation d'impact sur les droits fondamentaux (Art. 27) : Nous nous engageons à réaliser des évaluations d'impact sur les droits fondamentaux avant tout déploiement sur les marchés de l'UE

    L'évaluation de conformité et l'enregistrement dans la base de données de l'UE (Art. 60) sont en cours, avec un objectif d'achèvement aligné sur l'échéance des obligations à haut risque du 2 août 2026. La Commission peut reporter cette échéance au 2 décembre 2027 pour certains fournisseurs.

    Emotion Recognition

    L'interdiction de la reconnaissance d'émotions dans les systèmes d'IA en milieu professionnel (Art. 5(1)(f)) est en vigueur depuis le 2 février 2025. Vocaid n'a jamais utilisé la reconnaissance d'émotions et confirme sa pleine conformité avec cette interdiction.

    Loi sur l'IA du Colorado (SB 24-205)

    La loi sur l'IA du Colorado, en vigueur depuis le 1er février 2026, établit des obligations pour les développeurs et déployeurs de systèmes d'IA à haut risque. En tant que développeur d'outils d'évaluation pour le recrutement alimentés par l'IA, Vocaid reconnaît les obligations suivantes :

    • Divulgation du développeur : Nous fournissons aux déployeurs (employeurs utilisant notre plateforme) une documentation décrivant les utilisations prévues, les limitations connues et les mesures d'atténuation des risques de nos systèmes d'IA
    • Gestion des risques : Nous maintenons des pratiques raisonnables de gestion des risques pour traiter les risques connus ou raisonnablement prévisibles de discrimination algorithmique
    • Notification au consommateur : Les consommateurs (candidats) sont informés lorsqu'un système d'IA à haut risque prend ou influence substantiellement une décision conséquente les concernant
    • Déclaration de conformité : Nous rendrons disponible sur notre site web une déclaration résumant les types de systèmes d'IA à haut risque que nous développons et comment nous gérons les risques de discrimination algorithmique
    • Coopération avec le procureur général : Nous coopérerons avec le procureur général du Colorado pour l'évaluation de la conformité et fournirons la documentation sur demande

    Les déployeurs de Vocaid (employeurs) ont des obligations indépendantes en vertu de la loi sur l'IA du Colorado, notamment la réalisation d'évaluations d'impact et la notification aux consommateurs. Nous aidons les déployeurs à remplir leurs obligations grâce à la documentation de notre plateforme et à nos outils de transparence.

    Loi texane sur la gouvernance responsable de l'IA

    La loi texane sur la gouvernance responsable de l'IA, en vigueur depuis le 1er janvier 2026, exige des entreprises déployant des systèmes d'IA au Texas qu'elles maintiennent des cadres de gouvernance de l'IA. Vocaid se conforme aux exigences suivantes :

    • Cadre de gouvernance de l'IA : Nous maintenons une documentation interne de nos pratiques de gouvernance de l'IA, disponible pour le procureur général du Texas sur demande
    • Utilisations interdites : Nos systèmes d'IA n'encouragent pas l'automutilation, les activités criminelles ni la discrimination illégale
    • Transparence : Nous fournissons une divulgation claire de l'utilisation de l'IA dans nos outils d'évaluation pour le recrutement
    • Données biométriques : Nous précisons quand des données biométriques sont collectées pour le traitement par l'IA et obtenons le consentement approprié en vertu de la loi texane

    NYC Local Law 144 (AEDT)

    La plateforme d'entretien et de notation par IA de Vocaid constitue un outil automatisé de décision en matière d'emploi (AEDT) en vertu de la NYC Local Law 144. Nous nous conformons aux exigences suivantes :

    • Audit de biais annuel : Nous nous engageons à réaliser un audit de biais indépendant par un auditeur tiers qualifié, analysant les taux de sélection par sexe, race/ethnicité et catégories intersectionnelles
    • Résumé public : Le résumé de l'audit de biais sera publié sur notre site web dans les 6 mois suivant l'achèvement de chaque audit
    • Notification aux candidats : Nous fournissons aux candidats un préavis d'au moins 10 jours ouvrables avant l'utilisation d'un AEDT dans une décision d'emploi, tel qu'implémenté dans notre système de notification des candidats
    • Divulgation des données : Les candidats peuvent demander des informations sur les données collectées, la source de ces données et la politique de conservation des données de l'employeur

    Article 20 de la LGPD brésilienne

    En vertu de l'article 20 de la Lei Geral de Proteção de Dados (LGPD) du Brésil, les personnes concernées ont le droit de demander un examen humain des décisions prises uniquement par traitement automatisé qui affectent leurs intérêts, y compris le profilage. Vocaid garantit :

    • Les candidats évalués par nos systèmes d'IA peuvent demander un examen humain des décisions automatisées via notre Centre de Confidentialité ou en contactant notre Encarregado (DPO)
    • Nous fournissons de la transparence sur les critères et procédures utilisés dans la prise de décision automatisée
    • Tous les scores d'IA sont présentés comme des recommandations consultatives, jamais comme des décisions contraignantes

    LFPDPPP du Mexique (Réforme 2025)

    La réforme de 2025 de la loi fédérale mexicaine sur la protection des données personnelles détenues par des particuliers introduit de nouvelles obligations en matière de prise de décision automatisée. Vocaid se conforme aux exigences suivantes :

    • Transparence de la prise de décision automatisée : Nous divulguons quand la technologie de prise de décision automatisée est utilisée dans l'évaluation des candidats
    • Droit à l'intervention humaine : Les personnes concernées peuvent demander une intervention humaine dans les décisions automatisées qui produisent des effets juridiques ou qui les affectent de manière significativement similaire
    • Évaluation d'impact : Nous nous engageons à réaliser des évaluations d'impact pour le traitement automatisé des données personnelles
    • Consentement renforcé : Nous obtenons un consentement spécifique et éclairé pour le traitement des données personnelles par prise de décision automatisée

    Circulaire SIC 001/2025 de Colombie

    La Superintendencia de Industria y Comercio (SIC) de Colombie a publié la Circulaire 001/2025 portant sur les exigences de traitement des données biométriques. Pour les opérations de Vocaid en Colombie :

    • Proportionnalité biométrique : Nous veillons à ce que toute collecte de données biométriques soit proportionnelle à la finalité déclarée et ne dépasse pas ce qui est strictement nécessaire
    • Limitation de la finalité : Les données biométriques sont collectées uniquement pour la vérification d'entretien et le coaching en retour de communication, et non à des fins de surveillance ou de suivi continu
    • Conformité SIC : Nous nous engageons à enregistrer nos bases de données auprès du RNBD (Registro Nacional de Bases de Datos) conformément à la loi colombienne

    7. Cadre de gouvernance de l'IA

    Vocaid maintient un cadre de gouvernance de l'IA complet qui traite du développement, du déploiement et du suivi responsables de nos systèmes d'IA dans toutes les juridictions où nous opérons.

    Nos pratiques de gouvernance

    • Gestion des risques : Identification, évaluation et atténuation systématiques des risques associés à nos systèmes d'IA, y compris les risques de biais, de discrimination et d'inexactitude
    • Tests et surveillance des biais : Tests réguliers des résultats de l'IA sur différents groupes démographiques pour identifier et traiter l'impact disparate ou les schémas de biais injustes
    • Surveillance continue : Suivi continu des systèmes d'IA déployés pour détecter la dégradation des performances, la dérive et les biais émergents
    • Gestion des versions des modèles : Contrôle de version et documentation de toutes les mises à jour des modèles d'IA, avec évaluation d'impact avant le déploiement de modifications significatives
    • Signalement des incidents : Processus internes de signalement, d'enquête et de remédiation des incidents liés à l'IA, y compris les plaintes de biais, les problèmes d'exactitude et les défaillances système
    • Engagement des parties prenantes : Engagement régulier avec les parties prenantes concernées, y compris les candidats, les employeurs, les régulateurs et les organisations de la société civile

    Notre cadre de gouvernance de l'IA est conçu pour évoluer avec le paysage réglementaire. Nous révisons et mettons à jour régulièrement nos pratiques pour les aligner sur les nouvelles exigences du AI Act de l'UE, de la loi sur l'IA du Colorado, de la loi texane sur la gouvernance responsable de l'IA et d'autres réglementations émergentes en matière d'IA.

    8. Droits des candidats en matière d'IA

    Vocaid reconnaît les droits suivants pour toutes les personnes qui interagissent avec nos systèmes d'IA :

    1

    Droit de savoir

    Vous avez le droit de savoir que l'IA est utilisée dans votre processus d'entretien et comment elle affecte votre évaluation.

    2

    Droit au consentement

    Vous avez le droit de donner un consentement éclairé avant le traitement de données biométriques (modèles vocaux, géométrie faciale).

    3

    Droit de refus

    Vous avez le droit de refuser l'enregistrement vidéo et l'analyse comportementale et d'utiliser le mode audio uniquement sans pénalité.

    4

    Droit à la révision humaine

    Vous avez le droit de demander la révision humaine de tout score ou évaluation généré par l'IA.

    5

    Droit d'appel

    Vous avez le droit de contester les évaluations générées par l'IA et de fournir un contexte supplémentaire.

    6

    Droit à l'explication

    Vous avez le droit de recevoir une explication significative de la manière dont vos scores ont été générés.

    7

    Droit d'accès aux données

    Vous avez le droit d'accéder à toutes les données collectées vous concernant et à tous les résultats générés par l'IA.

    8

    Droit de suppression

    Vous avez le droit de demander la suppression permanente de vos données d'entretien, enregistrements et résultats d'IA.

    9

    Droit à la non-discrimination

    Vous avez le droit à un traitement équitable indépendamment de votre race, genre, âge, handicap, accent ou autres caractéristiques personnelles.

    10

    Droit aux aménagements

    Vous avez le droit de demander des aménagements raisonnables pour les handicaps susceptibles d'affecter la précision de l'évaluation par l'IA.

    6. EU AI Act Compliance (Annex IV)

    In accordance with the European Union AI Act (Regulation 2024/1689), Vocaid provides the following technical documentation for our AI systems classified under the Act. Our systems are designed to comply with transparency obligations for AI systems that interact with natural persons.

    System Information & Intended Purpose

    • Provider: Vocaid, Inc.
    • System Name: Vocaid AI Interview Platform
    • Version: Production (continuously updated)
    • Intended Purpose: AI-powered interview practice, resume scoring, and behavioral communication coaching
    • Intended Users: Job seekers (B2C) and hiring organizations (B2B)
    • EU Representative: Contact support@vocaid.ai for EU representative details
    • Risk Classification: Limited Risk (transparency obligations apply under Article 50)

    Training Data & Model Information

    • Vocaid uses third-party foundation models (Azure OpenAI GPT-4o) — we do not train custom models on user data
    • Resume scoring uses keyword and semantic matching algorithms, not machine learning classifiers
    • Behavioral analysis uses computer vision algorithms for face detection and gaze estimation, not facial recognition
    • No biometric identification or categorization is performed
    • Emotion recognition is explicitly prohibited in our systems (EU AI Act Article 5(1)(f) compliance)

    Risk Management & Mitigation

    Vocaid implements the following measures to mitigate risks associated with AI-assisted assessment:

    • Human oversight: All AI-generated scores are advisory — hiring decisions are always made by humans
    • Bias monitoring: Regular statistical analysis of score distributions across demographic groups
    • Transparency: Full disclosure of AI involvement before any assessment begins
    • Data minimization: Only data necessary for the specific assessment purpose is collected
    • User control: Users can opt out of video/behavioral analysis at any time without penalty
    • Logging: All AI decisions are logged for auditability per Article 12 requirements
    • Incident reporting: Processes in place for reporting serious incidents to relevant authorities

    For the complete technical documentation file or to submit questions regarding EU AI Act compliance, contact support@vocaid.ai. We are committed to full compliance with the Act's requirements as they enter into force.

    7. NYC Local Law 144 Compliance

    New York City Local Law 144 (2021) requires employers and employment agencies that use automated employment decision tools (AEDTs) to conduct annual independent bias audits and provide notice to candidates. Vocaid is committed to compliance with LL144 requirements.

    Applicability & Scope

    • Vocaid's AI interview scoring system qualifies as an AEDT when used by employers to substantially assist or replace discretionary decision-making in hiring
    • LL144 applies to candidates for employment opportunities in New York City
    • For B2C users (personal practice), the tool is advisory only and does not constitute an AEDT
    • For B2B employers using Vocaid to screen candidates, LL144 requirements apply

    Independent Bias Audit

    Vocaid will commission an independent bias audit before deploying our AI scoring for B2B hiring decisions in NYC. The audit will evaluate:

    • Impact ratio: Scoring rates for each race/ethnicity category compared to the most selected category
    • Impact ratio: Scoring rates for each sex category compared to the most selected category
    • Median scores: Comparison of median AI-generated scores across demographic categories
    • Selection rates: Analysis of pass/fail rates across protected categories at various score thresholds
    • Intersectional analysis: Combined race/ethnicity and sex impact ratios where data is sufficient

    Candidate Notice

    In compliance with LL144, Vocaid provides the following notice to candidates evaluated for NYC employment opportunities: An automated employment decision tool (AEDT) will be used in connection with the assessment of your job application. The AEDT evaluates your interview responses for communication clarity, technical knowledge, problem-solving ability, and relevance. You may request an alternative selection process or accommodation by contacting the employer directly or by emailing support@vocaid.ai.

    The bias audit summary will be published on this page once completed. Vocaid retains bias audit results for at least four years as required by law. For questions about LL144 compliance, contact support@vocaid.ai.

    8. Services d'IA tiers

    Vocaid utilise les services d'IA tiers suivants. Nous maintenons des Accords de Traitement des Données avec chaque fournisseur pour garantir que vos données sont traitées de manière responsable.

    • Azure OpenAI Service (Microsoft) — Alimente la conversation d'entretien, la génération de questions et la notation de performance↗
    • Deepgram — Transcription parole-texte en temps réel↗
    • Azure Face API (Microsoft) — Détection faciale et vérification de vivacité (pas de reconnaissance faciale)↗

    9. Nous contacter

    Pour des questions sur nos pratiques en matière d'IA, pour exercer vos droits ou pour signaler une préoccupation :

    E-mail : support@vocaid.ai

    Nous prenons toutes les demandes liées à l'IA au sérieux et nous nous efforçons de répondre dans les 15 jours ouvrables.