Esta es una traducción de cortesía. La versión en inglés es el documento legalmente vinculante.
Última actualización: 28 de febrero de 2026
Vocaid está comprometido con la transparencia sobre cómo se utiliza la inteligencia artificial en nuestra plataforma. Esta página proporciona una descripción completa de nuestros sistemas de IA, cómo generan resultados, sus limitaciones conocidas y sus derechos como usuario.
Creemos que toda persona que interactúa con herramientas de contratación impulsadas por IA tiene derecho a comprender cómo funcionan esas herramientas y cómo pueden afectar las decisiones sobre su carrera.
Vocaid utiliza los siguientes sistemas de IA en su plataforma. Cada sistema se describe con su propósito, los datos que procesa y las salvaguardas implementadas.
Realiza entrevistas en tiempo real basadas en voz utilizando procesamiento de lenguaje natural
Data Processed
Outputs
Known Limitations
Human Oversight
Todas las puntuaciones generadas por IA se presentan como recomendaciones. Los gerentes de contratación B2B conservan la autoridad total en las decisiones. Los candidatos pueden solicitar revisión humana.
Analiza señales de comunicación no verbal durante entrevistas de video para retroalimentación de coaching
Data Processed
Outputs
Known Limitations
Human Oversight
Las señales de comportamiento son datos de coaching complementarios únicamente. Nunca son la única base para la puntuación. Los usuarios pueden optar por no participar completamente y usar el modo solo audio.
Analiza el contenido del currículum contra las descripciones de puestos para proporcionar puntuación de compatibilidad
Data Processed
Outputs
Known Limitations
Human Oversight
Las puntuaciones ATS son herramientas consultivas para la mejora del currículum. No determinan el acceso a entrevistas ni los resultados de contratación.
Verifica que una persona real está presente durante la sesión de entrevista para prevenir el fraude
Data Processed
Outputs
Known Limitations
Human Oversight
La verificación de vivacidad es una comprobación binaria de aprobado/reprobado. La verificación fallida puede reintentarse u omitirse. No afecta la puntuación de la entrevista.
La puntuación de entrevistas de Vocaid evalúa a los candidatos en múltiples dimensiones utilizando análisis de IA de sus respuestas habladas. Las puntuaciones reflejan la evaluación de la IA de las competencias demostradas, no las capacidades inherentes de la persona.
Dimensiones de Puntuación
Las puntuaciones van de 0 a 100 y representan evaluaciones relativas. Deben interpretarse como retroalimentación de coaching, no como mediciones absolutas. Las puntuaciones pueden variar entre sesiones debido a la variación de preguntas, actualizaciones del modelo de IA y diferencias en las respuestas.
Estamos comprometidos a garantizar que nuestros sistemas de IA no discriminen a ningún individuo o grupo basándose en características protegidas, incluyendo raza, género, edad, discapacidad, origen nacional u otras categorías legalmente protegidas.
Nuestras Medidas de Prevención de Sesgos
Si cree que ha experimentado sesgo en las puntuaciones o retroalimentación generadas por IA, repórtelo a support@vocaid.ai. Investigamos todos los informes de sesgo y tomamos medidas correctivas cuando corresponda.
Vocaid NO utiliza reconocimiento de emociones, inferencia emocional ni computación afectiva en ninguno de sus sistemas de IA. Esta prohibición es un principio fundamental de diseño, no meramente una medida de cumplimiento.
El AI Act de la UE (Artículo 5(1)(f)), vigente desde el 2 de febrero de 2025, prohíbe explícitamente el uso de sistemas de IA que infieran emociones en el lugar de trabajo e instituciones educativas, salvo con fines médicos o de seguridad. Las funcionalidades de análisis de comportamiento de Vocaid producen únicamente resultados factuales y observables:
Estos resultados describen comportamientos físicos observables y NO infieren estados emocionales internos como confianza, nerviosismo, estrés, entusiasmo ni ninguna otra característica afectiva. Nuestro análisis de comportamiento es fundamentalmente diferente del reconocimiento de emociones porque mide lo que una persona hace, no lo que siente.
Prohibición Estricta
Los estándares de ingeniería de Vocaid prohíben cualquier etiqueta de salida de modelo que implique inferencia emocional. Todos los resultados del análisis de comportamiento son revisados para asegurar que describan únicamente observaciones factuales. La violación de la prohibición de reconocimiento de emociones del AI Act de la UE conlleva sanciones de hasta 35 millones de euros o el 7% de la facturación anual global.
Vocaid opera en cumplimiento con los marcos regulatorios de IA en múltiples jurisdicciones. A continuación se detallan las obligaciones específicas y nuestras medidas de cumplimiento para cada regulación aplicable.
Vocaid se clasifica como un sistema de IA de alto riesgo bajo el Anexo III, Categoría 4 (Empleo, Gestión de Trabajadores y Acceso al Trabajo por Cuenta Propia) del AI Act de la UE (Reglamento (UE) 2024/1689). Como proveedor de herramientas de evaluación de contratación con IA, estamos sujetos a los requisitos del Capítulo 3, Sección 2.
La evaluación de conformidad y el registro en la base de datos de la UE (Art. 60) están en curso, con un objetivo de finalización alineado con la fecha límite de obligaciones de alto riesgo del 2 de agosto de 2026. La Comisión puede retrasar esta fecha límite hasta el 2 de diciembre de 2027 para ciertos proveedores.
Emotion Recognition
La prohibición del reconocimiento de emociones en sistemas de IA en el lugar de trabajo (Art. 5(1)(f)) está vigente desde el 2 de febrero de 2025. Vocaid nunca ha utilizado reconocimiento de emociones y confirma el pleno cumplimiento de esta prohibición.
La Ley de IA de Colorado, vigente desde el 1 de febrero de 2026, establece obligaciones para desarrolladores e implementadores de sistemas de IA de alto riesgo. Como desarrollador de herramientas de evaluación de contratación con IA, Vocaid reconoce las siguientes obligaciones:
Los implementadores de Vocaid (empleadores) tienen obligaciones independientes bajo la Ley de IA de Colorado, incluyendo la realización de evaluaciones de impacto y la notificación al consumidor. Apoyamos a los implementadores en el cumplimiento de sus obligaciones a través de la documentación de nuestra plataforma y herramientas de transparencia.
La Ley de Gobernanza Responsable de IA de Texas, vigente desde el 1 de enero de 2026, requiere que las empresas que implementan sistemas de IA en Texas mantengan marcos de gobernanza de IA. Vocaid cumple con los siguientes requisitos:
La plataforma de entrevistas y puntuación con IA de Vocaid constituye una Herramienta Automatizada de Decisión de Empleo (AEDT) bajo la Ley Local 144 de NYC. Cumplimos con los siguientes requisitos:
Bajo el Artículo 20 de la Lei Geral de Proteção de Dados (LGPD) de Brasil, los titulares de datos tienen derecho a solicitar la revisión humana de decisiones tomadas exclusivamente mediante procesamiento automatizado que afecten sus intereses, incluyendo la elaboración de perfiles. Vocaid garantiza:
La reforma de 2025 a la Ley Federal de Protección de Datos Personales en Posesión de los Particulares de México introduce nuevas obligaciones para la toma de decisiones automatizada. Vocaid cumple con:
La Superintendencia de Industria y Comercio (SIC) de Colombia emitió la Circular 001/2025 que aborda los requisitos de procesamiento de datos biométricos. Para las operaciones de Vocaid en Colombia:
Vocaid mantiene un marco integral de gobernanza de IA que aborda el desarrollo responsable, la implementación y el monitoreo de nuestros sistemas de IA en todas las jurisdicciones donde operamos.
Nuestras Prácticas de Gobernanza
Nuestro marco de gobernanza de IA está diseñado para evolucionar con el panorama regulatorio. Revisamos y actualizamos regularmente nuestras prácticas para alinearnos con los nuevos requisitos del AI Act de la UE, la Ley de IA de Colorado, la Ley de Gobernanza Responsable de IA de Texas y otras regulaciones emergentes de IA.
Vocaid reconoce los siguientes derechos para todas las personas que interactúan con nuestros sistemas de IA:
Derecho a Saber
Tiene derecho a saber que se está utilizando IA en su proceso de entrevista y cómo afecta su evaluación.
Derecho al Consentimiento
Tiene derecho a dar su consentimiento informado antes de que se procesen datos biométricos (patrones de voz, geometría facial).
Derecho a Rechazar
Tiene derecho a rechazar la grabación de video y el análisis de comportamiento y usar el modo solo audio sin penalización.
Derecho a Revisión Humana
Tiene derecho a solicitar la revisión humana de cualquier puntuación o evaluación generada por IA.
Derecho a Apelar
Tiene derecho a impugnar las evaluaciones generadas por IA y proporcionar contexto adicional.
Derecho a Explicación
Tiene derecho a recibir una explicación significativa de cómo se generaron sus puntuaciones.
Derecho de Acceso a Datos
Tiene derecho a acceder a todos los datos recopilados sobre usted y a todos los resultados generados por IA.
Derecho de Eliminación
Tiene derecho a solicitar la eliminación permanente de sus datos de entrevista, grabaciones y resultados de IA.
Derecho a la No Discriminación
Tiene derecho a un trato justo independientemente de su raza, género, edad, discapacidad, acento u otras características personales.
Derecho a Adaptaciones
Tiene derecho a solicitar adaptaciones razonables por discapacidades que puedan afectar la precisión de la evaluación por IA.
In accordance with the European Union AI Act (Regulation 2024/1689), Vocaid provides the following technical documentation for our AI systems classified under the Act. Our systems are designed to comply with transparency obligations for AI systems that interact with natural persons.
System Information & Intended Purpose
Training Data & Model Information
Risk Management & Mitigation
Vocaid implements the following measures to mitigate risks associated with AI-assisted assessment:
For the complete technical documentation file or to submit questions regarding EU AI Act compliance, contact support@vocaid.ai. We are committed to full compliance with the Act's requirements as they enter into force.
New York City Local Law 144 (2021) requires employers and employment agencies that use automated employment decision tools (AEDTs) to conduct annual independent bias audits and provide notice to candidates. Vocaid is committed to compliance with LL144 requirements.
Applicability & Scope
Independent Bias Audit
Vocaid will commission an independent bias audit before deploying our AI scoring for B2B hiring decisions in NYC. The audit will evaluate:
Candidate Notice
In compliance with LL144, Vocaid provides the following notice to candidates evaluated for NYC employment opportunities: An automated employment decision tool (AEDT) will be used in connection with the assessment of your job application. The AEDT evaluates your interview responses for communication clarity, technical knowledge, problem-solving ability, and relevance. You may request an alternative selection process or accommodation by contacting the employer directly or by emailing support@vocaid.ai.
The bias audit summary will be published on this page once completed. Vocaid retains bias audit results for at least four years as required by law. For questions about LL144 compliance, contact support@vocaid.ai.
Vocaid utiliza los siguientes servicios de IA de terceros. Mantenemos Acuerdos de Procesamiento de Datos con cada proveedor para garantizar que sus datos se manejen de manera responsable.
Para preguntas sobre nuestras prácticas de IA, para ejercer sus derechos o para reportar una preocupación:
Correo electrónico: support@vocaid.ai
Tomamos todas las consultas relacionadas con la IA con seriedad y nuestro objetivo es responder dentro de 15 días hábiles.