Saltar al contenido
Vocaid

Subscribe to our newsletter

Weekly digest of new blog posts. Unsubscribe anytime.

Vocaid

Turn interviews into measurable progress.

Product

  • Interview Practice
  • How It Works

Desarrolladores

  • Referencia de API
  • Vocaid Connect

Company

  • About

Legal

  • Privacy Policy
  • Terms of Use
  • Política de Cookies
  • Transparencia de la IA
  • No Vender Mi Información

© 2026 Vocaid. All rights reserved.

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.

    Esta es una traducción de cortesía. La versión en inglés es el documento legalmente vinculante.

    Transparencia de IA y Derechos del Candidato

    Última actualización: 28 de febrero de 2026

    Tabla de Contenidos

    Tabla de Contenidos

    1. Descripción General

    Vocaid está comprometido con la transparencia sobre cómo se utiliza la inteligencia artificial en nuestra plataforma. Esta página proporciona una descripción completa de nuestros sistemas de IA, cómo generan resultados, sus limitaciones conocidas y sus derechos como usuario.

    Creemos que toda persona que interactúa con herramientas de contratación impulsadas por IA tiene derecho a comprender cómo funcionan esas herramientas y cómo pueden afectar las decisiones sobre su carrera.

    2. Inventario de Sistemas de IA

    Vocaid utiliza los siguientes sistemas de IA en su plataforma. Cada sistema se describe con su propósito, los datos que procesa y las salvaguardas implementadas.

    IA de Entrevista por Voz

    Realiza entrevistas en tiempo real basadas en voz utilizando procesamiento de lenguaje natural

    Data Processed

    • •Entrada de audio del micrófono
    • •Descripción del puesto y contenido del currículum
    • •Contexto de la conversación de la sesión actual

    Outputs

    • •Preguntas de entrevista en lenguaje natural
    • •Preguntas de seguimiento basadas en las respuestas
    • •Transcripción de voz a texto en tiempo real

    Known Limitations

    • •Puede malinterpretar acentos fuertes o dialectos
    • •La precisión de la transcripción varía con la calidad del audio
    • •No puede evaluar demostraciones físicas o habilidades prácticas
    • •La calidad de la respuesta depende de la estabilidad de la conexión a internet

    Human Oversight

    Todas las puntuaciones generadas por IA se presentan como recomendaciones. Los gerentes de contratación B2B conservan la autoridad total en las decisiones. Los candidatos pueden solicitar revisión humana.

    Análisis de Comportamiento

    Analiza señales de comunicación no verbal durante entrevistas de video para retroalimentación de coaching

    Data Processed

    • •Fotogramas de video (muestreados, no almacenados continuamente)
    • •Coordenadas de detección facial (no reconocimiento facial)
    • •Estimaciones de dirección de la mirada
    • •Patrones de posición y movimiento de la cabeza

    Outputs

    • •Porcentaje de consistencia del contacto visual
    • •Indicadores de postura y participación
    • •Métricas de tiempo de respuesta
    • •Datos de mapa de calor del seguimiento de la mirada

    Known Limitations

    • •La precisión depende de la calidad de la cámara y la iluminación
    • •No puede evaluar el estado emocional (el reconocimiento de emociones está prohibido)
    • •Puede ser menos preciso para ciertos tipos de rostros o tonos de piel
    • •Requiere posición frontal de la cámara para resultados confiables

    Human Oversight

    Las señales de comportamiento son datos de coaching complementarios únicamente. Nunca son la única base para la puntuación. Los usuarios pueden optar por no participar completamente y usar el modo solo audio.

    Puntuación de Currículum ATS

    Analiza el contenido del currículum contra las descripciones de puestos para proporcionar puntuación de compatibilidad

    Data Processed

    • •Contenido de texto del currículum
    • •Requisitos de la descripción del puesto
    • •Bases de datos de palabras clave estándar de la industria

    Outputs

    • •Puntuación de compatibilidad general (0-100)
    • •Análisis de coincidencia de palabras clave
    • •Identificación de habilidades faltantes
    • •Recomendaciones de formato y estructura

    Known Limitations

    • •No puede verificar las afirmaciones hechas en los currículos
    • •Puede subestimar trayectorias profesionales no tradicionales
    • •La coincidencia de palabras clave puede no detectar terminología equivalente
    • •No evalúa habilidades blandas ni compatibilidad cultural

    Human Oversight

    Las puntuaciones ATS son herramientas consultivas para la mejora del currículum. No determinan el acceso a entrevistas ni los resultados de contratación.

    Detección de Vivacidad

    Verifica que una persona real está presente durante la sesión de entrevista para prevenir el fraude

    Data Processed

    • •Fotogramas de video durante la verificación
    • •Coordenadas de detección facial
    • •Seguimiento de movimiento de la cabeza

    Outputs

    • •Resultado de verificación de vivacidad aprobado/reprobado
    • •Puntuación de confianza (solo para uso interno)

    Known Limitations

    • •Puede fallar en condiciones de poca iluminación
    • •Requiere acceso a la cámara (se puede omitir con alternativa)
    • •Puede ser menos confiable con ciertos accesorios (mascarillas, maquillaje intenso)

    Human Oversight

    La verificación de vivacidad es una comprobación binaria de aprobado/reprobado. La verificación fallida puede reintentarse u omitirse. No afecta la puntuación de la entrevista.

    3. Metodología de Puntuación

    La puntuación de entrevistas de Vocaid evalúa a los candidatos en múltiples dimensiones utilizando análisis de IA de sus respuestas habladas. Las puntuaciones reflejan la evaluación de la IA de las competencias demostradas, no las capacidades inherentes de la persona.

    Dimensiones de Puntuación

    • Claridad de Comunicación: Cuán clara y coherentemente se expresan las ideas
    • Conocimiento Técnico: Comprensión demostrada de conceptos técnicos relevantes
    • Resolución de Problemas: Enfoque para analizar y resolver los desafíos presentados
    • Relevancia: Cuán bien las respuestas abordan la pregunta específica realizada
    • Profundidad: Nivel de detalle y contenido sustantivo en las respuestas

    Las puntuaciones van de 0 a 100 y representan evaluaciones relativas. Deben interpretarse como retroalimentación de coaching, no como mediciones absolutas. Las puntuaciones pueden variar entre sesiones debido a la variación de preguntas, actualizaciones del modelo de IA y diferencias en las respuestas.

    4. Prevención de Sesgos

    Estamos comprometidos a garantizar que nuestros sistemas de IA no discriminen a ningún individuo o grupo basándose en características protegidas, incluyendo raza, género, edad, discapacidad, origen nacional u otras categorías legalmente protegidas.

    Nuestras Medidas de Prevención de Sesgos

    • Pruebas regulares de los resultados de IA en diferentes grupos demográficos para identificar impacto dispar
    • Prohibición del reconocimiento de emociones en contextos de evaluación laboral (cumplimiento del AI Act de la UE)
    • Puntuación basada en contenido y calidad de comunicación, no en características de voz, acento o apariencia
    • Monitoreo continuo de las distribuciones de puntuación para detectar anomalías estadísticas
    • Auditoría de sesgos independiente planificada por un auditor externo cualificado (conforme a los requisitos de la Ley Local 144 de NYC)

    Si cree que ha experimentado sesgo en las puntuaciones o retroalimentación generadas por IA, repórtelo a support@vocaid.ai. Investigamos todos los informes de sesgo y tomamos medidas correctivas cuando corresponda.

    5. Prohibición del Reconocimiento de Emociones

    Vocaid NO utiliza reconocimiento de emociones, inferencia emocional ni computación afectiva en ninguno de sus sistemas de IA. Esta prohibición es un principio fundamental de diseño, no meramente una medida de cumplimiento.

    El AI Act de la UE (Artículo 5(1)(f)), vigente desde el 2 de febrero de 2025, prohíbe explícitamente el uso de sistemas de IA que infieran emociones en el lugar de trabajo e instituciones educativas, salvo con fines médicos o de seguridad. Las funcionalidades de análisis de comportamiento de Vocaid producen únicamente resultados factuales y observables:

    • Porcentaje de consistencia del contacto visual (medido por la dirección de la mirada relativa a la cámara)
    • Indicadores de postura (posición de la cabeza, alineación de los hombros detectados a partir de fotogramas de video)
    • Métricas de tiempo de respuesta (duración entre la pregunta y la respuesta)
    • Datos de mapa de calor del seguimiento de la mirada (dirección de la atención visual)

    Estos resultados describen comportamientos físicos observables y NO infieren estados emocionales internos como confianza, nerviosismo, estrés, entusiasmo ni ninguna otra característica afectiva. Nuestro análisis de comportamiento es fundamentalmente diferente del reconocimiento de emociones porque mide lo que una persona hace, no lo que siente.

    Prohibición Estricta

    Los estándares de ingeniería de Vocaid prohíben cualquier etiqueta de salida de modelo que implique inferencia emocional. Todos los resultados del análisis de comportamiento son revisados para asegurar que describan únicamente observaciones factuales. La violación de la prohibición de reconocimiento de emociones del AI Act de la UE conlleva sanciones de hasta 35 millones de euros o el 7% de la facturación anual global.

    6. Cumplimiento Regulatorio

    Vocaid opera en cumplimiento con los marcos regulatorios de IA en múltiples jurisdicciones. A continuación se detallan las obligaciones específicas y nuestras medidas de cumplimiento para cada regulación aplicable.

    Cumplimiento del AI Act de la UE

    Vocaid se clasifica como un sistema de IA de alto riesgo bajo el Anexo III, Categoría 4 (Empleo, Gestión de Trabajadores y Acceso al Trabajo por Cuenta Propia) del AI Act de la UE (Reglamento (UE) 2024/1689). Como proveedor de herramientas de evaluación de contratación con IA, estamos sujetos a los requisitos del Capítulo 3, Sección 2.

    • Sistema de Gestión de Riesgos (Art. 9): Mantenemos un sistema documentado de gestión de riesgos que identifica, evalúa y mitiga riesgos a lo largo del ciclo de vida del sistema de IA
    • Gobernanza de Datos (Art. 10): Los conjuntos de datos de entrenamiento, validación y prueba están sujetos a prácticas de gobernanza y gestión de datos que aseguran calidad, representatividad y detección de sesgos
    • Documentación Técnica (Art. 11): Mantenemos documentación técnica integral que describe nuestros sistemas de IA, sus capacidades, limitaciones y las metodologías utilizadas
    • Mantenimiento de Registros (Art. 12): El registro automático de las operaciones del sistema de IA permite la trazabilidad del comportamiento del sistema
    • Transparencia (Art. 13): Esta página de Transparencia de IA cumple con nuestras obligaciones de transparencia al proporcionar información clara sobre las capacidades y limitaciones del sistema
    • Supervisión Humana (Art. 14): Todas las puntuaciones generadas por IA son consultivas. Los responsables de decisiones humanos (gerentes de contratación) conservan la autoridad sobre las decisiones laborales. Las capacidades de anulación están integradas en los flujos de trabajo B2B.
    • Precisión, Robustez y Ciberseguridad (Art. 15): Implementamos medidas para asegurar niveles adecuados de precisión, robustez y ciberseguridad
    • Evaluación de Impacto en Derechos Fundamentales (Art. 27): Nos comprometemos a realizar evaluaciones de impacto en derechos fundamentales antes de implementar en mercados de la UE

    La evaluación de conformidad y el registro en la base de datos de la UE (Art. 60) están en curso, con un objetivo de finalización alineado con la fecha límite de obligaciones de alto riesgo del 2 de agosto de 2026. La Comisión puede retrasar esta fecha límite hasta el 2 de diciembre de 2027 para ciertos proveedores.

    Emotion Recognition

    La prohibición del reconocimiento de emociones en sistemas de IA en el lugar de trabajo (Art. 5(1)(f)) está vigente desde el 2 de febrero de 2025. Vocaid nunca ha utilizado reconocimiento de emociones y confirma el pleno cumplimiento de esta prohibición.

    Ley de IA de Colorado (SB 24-205)

    La Ley de IA de Colorado, vigente desde el 1 de febrero de 2026, establece obligaciones para desarrolladores e implementadores de sistemas de IA de alto riesgo. Como desarrollador de herramientas de evaluación de contratación con IA, Vocaid reconoce las siguientes obligaciones:

    • Divulgación del Desarrollador: Proporcionamos a los implementadores (empleadores que utilizan nuestra plataforma) documentación que describe los usos previstos, las limitaciones conocidas y las medidas de mitigación de riesgos de nuestros sistemas de IA
    • Gestión de Riesgos: Mantenemos prácticas razonables de gestión de riesgos para abordar riesgos conocidos o razonablemente previsibles de discriminación algorítmica
    • Notificación al Consumidor: Los consumidores (candidatos) son notificados cuando un sistema de IA de alto riesgo toma o influye sustancialmente en una decisión trascendental sobre ellos
    • Declaración de Cumplimiento: Publicaremos una declaración en nuestro sitio web que resuma los tipos de sistemas de IA de alto riesgo que desarrollamos y cómo gestionamos los riesgos de discriminación algorítmica
    • Cooperación con el Fiscal General: Cooperaremos con el Fiscal General de Colorado en la evaluación del cumplimiento y proporcionaremos documentación a solicitud

    Los implementadores de Vocaid (empleadores) tienen obligaciones independientes bajo la Ley de IA de Colorado, incluyendo la realización de evaluaciones de impacto y la notificación al consumidor. Apoyamos a los implementadores en el cumplimiento de sus obligaciones a través de la documentación de nuestra plataforma y herramientas de transparencia.

    Ley de Gobernanza Responsable de IA de Texas

    La Ley de Gobernanza Responsable de IA de Texas, vigente desde el 1 de enero de 2026, requiere que las empresas que implementan sistemas de IA en Texas mantengan marcos de gobernanza de IA. Vocaid cumple con los siguientes requisitos:

    • Marco de Gobernanza de IA: Mantenemos documentación interna de nuestras prácticas de gobernanza de IA, disponible para el Fiscal General de Texas a solicitud
    • Usos Prohibidos: Nuestros sistemas de IA no fomentan la autolesión, la actividad delictiva ni la discriminación ilegal
    • Transparencia: Proporcionamos una divulgación clara del uso de IA en nuestras herramientas de evaluación de contratación
    • Datos Biométricos: Aclaramos cuándo se recopilan datos biométricos para procesamiento de IA y obtenemos el consentimiento adecuado bajo la ley de Texas

    Ley Local 144 de NYC (AEDT)

    La plataforma de entrevistas y puntuación con IA de Vocaid constituye una Herramienta Automatizada de Decisión de Empleo (AEDT) bajo la Ley Local 144 de NYC. Cumplimos con los siguientes requisitos:

    • Auditoría Anual de Sesgo: Nos comprometemos a realizar una auditoría de sesgo independiente por un auditor externo cualificado, analizando las tasas de selección por sexo, raza/etnicidad y categorías interseccionales
    • Resumen Público: El resumen de la auditoría de sesgo se publicará en nuestro sitio web dentro de los 6 meses posteriores a la finalización de cada auditoría
    • Notificación al Candidato: Proporcionamos a los candidatos un aviso con al menos 10 días hábiles de anticipación antes de que una AEDT sea utilizada en una decisión laboral, según se implementa en nuestro sistema de notificación de candidatos
    • Divulgación de Datos: Los candidatos pueden solicitar información sobre los datos recopilados, la fuente de dichos datos y la política de retención de datos del empleador

    LGPD de Brasil, Artículo 20

    Bajo el Artículo 20 de la Lei Geral de Proteção de Dados (LGPD) de Brasil, los titulares de datos tienen derecho a solicitar la revisión humana de decisiones tomadas exclusivamente mediante procesamiento automatizado que afecten sus intereses, incluyendo la elaboración de perfiles. Vocaid garantiza:

    • Los candidatos evaluados por nuestros sistemas de IA pueden solicitar la revisión humana de decisiones automatizadas a través de nuestro Centro de Privacidad o contactando a nuestro Encarregado (DPO)
    • Proporcionamos transparencia sobre los criterios y procedimientos utilizados en la toma de decisiones automatizada
    • Todas las puntuaciones de IA se presentan como recomendaciones consultivas, nunca como decisiones vinculantes

    LFPDPPP de México (Reforma 2025)

    La reforma de 2025 a la Ley Federal de Protección de Datos Personales en Posesión de los Particulares de México introduce nuevas obligaciones para la toma de decisiones automatizada. Vocaid cumple con:

    • Transparencia en la Toma de Decisiones Automatizada: Divulgamos cuándo se utiliza tecnología de toma de decisiones automatizada en la evaluación de candidatos
    • Derecho a la Intervención Humana: Los titulares de datos pueden solicitar la intervención humana en decisiones automatizadas que produzcan efectos jurídicos o que los afecten significativamente de manera similar
    • Evaluación de Impacto: Nos comprometemos a realizar evaluaciones de impacto para el procesamiento automatizado de datos personales
    • Consentimiento Reforzado: Obtenemos un consentimiento específico e informado para el tratamiento de datos personales mediante la toma de decisiones automatizada

    Circular 001/2025 de la SIC de Colombia

    La Superintendencia de Industria y Comercio (SIC) de Colombia emitió la Circular 001/2025 que aborda los requisitos de procesamiento de datos biométricos. Para las operaciones de Vocaid en Colombia:

    • Proporcionalidad Biométrica: Aseguramos que toda recopilación de datos biométricos sea proporcional al fin declarado y no exceda lo estrictamente necesario
    • Limitación de Finalidad: Los datos biométricos se recopilan exclusivamente para la verificación de entrevistas y retroalimentación de coaching de comunicación, no para vigilancia o monitoreo continuo
    • Cumplimiento con la SIC: Nos comprometemos a registrar nuestras bases de datos en el RNBD (Registro Nacional de Bases de Datos) según lo exige la ley colombiana

    7. Marco de Gobernanza de IA

    Vocaid mantiene un marco integral de gobernanza de IA que aborda el desarrollo responsable, la implementación y el monitoreo de nuestros sistemas de IA en todas las jurisdicciones donde operamos.

    Nuestras Prácticas de Gobernanza

    • Gestión de Riesgos: Identificación, evaluación y mitigación sistemática de riesgos asociados con nuestros sistemas de IA, incluyendo riesgos de sesgo, discriminación e inexactitud
    • Pruebas y Monitoreo de Sesgo: Pruebas regulares de los resultados de IA en diferentes grupos demográficos para identificar y abordar impacto dispar o patrones de sesgo injusto
    • Monitoreo Continuo: Vigilancia continua de los sistemas de IA implementados para detectar degradación del rendimiento, desviación y sesgo emergente
    • Versionado de Modelos: Control de versiones y documentación de todas las actualizaciones de modelos de IA, con evaluación de impacto antes de la implementación de cambios significativos
    • Reporte de Incidentes: Procesos internos para reportar, investigar y remediar incidentes relacionados con IA, incluyendo quejas por sesgo, problemas de precisión y fallas del sistema
    • Participación de Partes Interesadas: Interacción regular con las partes interesadas afectadas, incluyendo candidatos, empleadores, reguladores y organizaciones de la sociedad civil

    Nuestro marco de gobernanza de IA está diseñado para evolucionar con el panorama regulatorio. Revisamos y actualizamos regularmente nuestras prácticas para alinearnos con los nuevos requisitos del AI Act de la UE, la Ley de IA de Colorado, la Ley de Gobernanza Responsable de IA de Texas y otras regulaciones emergentes de IA.

    8. Derechos del Candidato respecto a la IA

    Vocaid reconoce los siguientes derechos para todas las personas que interactúan con nuestros sistemas de IA:

    1

    Derecho a Saber

    Tiene derecho a saber que se está utilizando IA en su proceso de entrevista y cómo afecta su evaluación.

    2

    Derecho al Consentimiento

    Tiene derecho a dar su consentimiento informado antes de que se procesen datos biométricos (patrones de voz, geometría facial).

    3

    Derecho a Rechazar

    Tiene derecho a rechazar la grabación de video y el análisis de comportamiento y usar el modo solo audio sin penalización.

    4

    Derecho a Revisión Humana

    Tiene derecho a solicitar la revisión humana de cualquier puntuación o evaluación generada por IA.

    5

    Derecho a Apelar

    Tiene derecho a impugnar las evaluaciones generadas por IA y proporcionar contexto adicional.

    6

    Derecho a Explicación

    Tiene derecho a recibir una explicación significativa de cómo se generaron sus puntuaciones.

    7

    Derecho de Acceso a Datos

    Tiene derecho a acceder a todos los datos recopilados sobre usted y a todos los resultados generados por IA.

    8

    Derecho de Eliminación

    Tiene derecho a solicitar la eliminación permanente de sus datos de entrevista, grabaciones y resultados de IA.

    9

    Derecho a la No Discriminación

    Tiene derecho a un trato justo independientemente de su raza, género, edad, discapacidad, acento u otras características personales.

    10

    Derecho a Adaptaciones

    Tiene derecho a solicitar adaptaciones razonables por discapacidades que puedan afectar la precisión de la evaluación por IA.

    6. EU AI Act Compliance (Annex IV)

    In accordance with the European Union AI Act (Regulation 2024/1689), Vocaid provides the following technical documentation for our AI systems classified under the Act. Our systems are designed to comply with transparency obligations for AI systems that interact with natural persons.

    System Information & Intended Purpose

    • Provider: Vocaid, Inc.
    • System Name: Vocaid AI Interview Platform
    • Version: Production (continuously updated)
    • Intended Purpose: AI-powered interview practice, resume scoring, and behavioral communication coaching
    • Intended Users: Job seekers (B2C) and hiring organizations (B2B)
    • EU Representative: Contact support@vocaid.ai for EU representative details
    • Risk Classification: Limited Risk (transparency obligations apply under Article 50)

    Training Data & Model Information

    • Vocaid uses third-party foundation models (Azure OpenAI GPT-4o) — we do not train custom models on user data
    • Resume scoring uses keyword and semantic matching algorithms, not machine learning classifiers
    • Behavioral analysis uses computer vision algorithms for face detection and gaze estimation, not facial recognition
    • No biometric identification or categorization is performed
    • Emotion recognition is explicitly prohibited in our systems (EU AI Act Article 5(1)(f) compliance)

    Risk Management & Mitigation

    Vocaid implements the following measures to mitigate risks associated with AI-assisted assessment:

    • Human oversight: All AI-generated scores are advisory — hiring decisions are always made by humans
    • Bias monitoring: Regular statistical analysis of score distributions across demographic groups
    • Transparency: Full disclosure of AI involvement before any assessment begins
    • Data minimization: Only data necessary for the specific assessment purpose is collected
    • User control: Users can opt out of video/behavioral analysis at any time without penalty
    • Logging: All AI decisions are logged for auditability per Article 12 requirements
    • Incident reporting: Processes in place for reporting serious incidents to relevant authorities

    For the complete technical documentation file or to submit questions regarding EU AI Act compliance, contact support@vocaid.ai. We are committed to full compliance with the Act's requirements as they enter into force.

    7. NYC Local Law 144 Compliance

    New York City Local Law 144 (2021) requires employers and employment agencies that use automated employment decision tools (AEDTs) to conduct annual independent bias audits and provide notice to candidates. Vocaid is committed to compliance with LL144 requirements.

    Applicability & Scope

    • Vocaid's AI interview scoring system qualifies as an AEDT when used by employers to substantially assist or replace discretionary decision-making in hiring
    • LL144 applies to candidates for employment opportunities in New York City
    • For B2C users (personal practice), the tool is advisory only and does not constitute an AEDT
    • For B2B employers using Vocaid to screen candidates, LL144 requirements apply

    Independent Bias Audit

    Vocaid will commission an independent bias audit before deploying our AI scoring for B2B hiring decisions in NYC. The audit will evaluate:

    • Impact ratio: Scoring rates for each race/ethnicity category compared to the most selected category
    • Impact ratio: Scoring rates for each sex category compared to the most selected category
    • Median scores: Comparison of median AI-generated scores across demographic categories
    • Selection rates: Analysis of pass/fail rates across protected categories at various score thresholds
    • Intersectional analysis: Combined race/ethnicity and sex impact ratios where data is sufficient

    Candidate Notice

    In compliance with LL144, Vocaid provides the following notice to candidates evaluated for NYC employment opportunities: An automated employment decision tool (AEDT) will be used in connection with the assessment of your job application. The AEDT evaluates your interview responses for communication clarity, technical knowledge, problem-solving ability, and relevance. You may request an alternative selection process or accommodation by contacting the employer directly or by emailing support@vocaid.ai.

    The bias audit summary will be published on this page once completed. Vocaid retains bias audit results for at least four years as required by law. For questions about LL144 compliance, contact support@vocaid.ai.

    8. Servicios de IA de Terceros

    Vocaid utiliza los siguientes servicios de IA de terceros. Mantenemos Acuerdos de Procesamiento de Datos con cada proveedor para garantizar que sus datos se manejen de manera responsable.

    • Azure OpenAI Service (Microsoft) — Impulsa la conversación de entrevista, generación de preguntas y puntuación de rendimiento↗
    • Deepgram — Transcripción de voz a texto en tiempo real↗
    • Azure Face API (Microsoft) — Detección facial y verificación de vivacidad (no reconocimiento facial)↗

    9. Contáctenos

    Para preguntas sobre nuestras prácticas de IA, para ejercer sus derechos o para reportar una preocupación:

    Correo electrónico: support@vocaid.ai

    Tomamos todas las consultas relacionadas con la IA con seriedad y nuestro objetivo es responder dentro de 15 días hábiles.