Esta é uma tradução de cortesia. A versão em inglês é o documento juridicamente vinculante.
Última atualização: 28 de fevereiro de 2026
A Vocaid está comprometida com a transparência sobre como a inteligência artificial é utilizada em nossa plataforma. Esta página fornece uma visão abrangente dos nossos sistemas de IA, como eles geram resultados, suas limitações conhecidas e seus direitos como usuário.
Acreditamos que toda pessoa que interage com ferramentas de contratação com tecnologia de IA tem o direito de entender como essas ferramentas funcionam e como podem afetar decisões sobre sua carreira.
A Vocaid utiliza os seguintes sistemas de IA em sua plataforma. Cada sistema é descrito com sua finalidade, os dados que processa e as salvaguardas implementadas.
Conduz entrevistas por voz em tempo real utilizando processamento de linguagem natural
Data Processed
Outputs
Known Limitations
Human Oversight
Todas as pontuações geradas por IA são apresentadas como recomendações. Gestores de contratação B2B mantêm total autoridade de decisão. Candidatos podem solicitar revisão humana.
Analisa sinais de comunicação não verbal durante entrevistas em vídeo para feedback de coaching
Data Processed
Outputs
Known Limitations
Human Oversight
Sinais comportamentais são dados suplementares apenas para coaching. Eles nunca são a única base para pontuação. Usuários podem optar por não participar e utilizar o modo apenas áudio.
Analisa o conteúdo do currículo em comparação com descrições de vagas para fornecer pontuação de compatibilidade
Data Processed
Outputs
Known Limitations
Human Oversight
As pontuações ATS são ferramentas consultivas para melhoria do currículo. Elas não determinam o acesso à entrevista ou os resultados de contratação.
Verifica se uma pessoa real está presente durante a sessão de entrevista para prevenir fraudes
Data Processed
Outputs
Known Limitations
Human Oversight
A verificação de presença é uma verificação binária aprovado/reprovado. Verificação com falha pode ser repetida ou ignorada. Não afeta a pontuação da entrevista.
A pontuação de entrevista da Vocaid avalia candidatos em múltiplas dimensões utilizando análise de IA das suas respostas faladas. As pontuações refletem a avaliação da IA sobre competências demonstradas, não as habilidades inerentes da pessoa.
Dimensões de Pontuação
As pontuações variam de 0 a 100 e representam avaliações relativas. Devem ser interpretadas como feedback de coaching, não como medições absolutas. As pontuações podem variar entre sessões devido à variação de perguntas, atualizações do modelo de IA e diferenças nas respostas.
Estamos comprometidos em garantir que nossos sistemas de IA não discriminem qualquer indivíduo ou grupo com base em características protegidas, incluindo raça, gênero, idade, deficiência, origem nacional ou outras categorias legalmente protegidas.
Nossas Medidas de Prevenção de Vieses
Se você acredita que foi alvo de viés nas pontuações ou no feedback gerados por IA, por favor reporte para support@vocaid.ai. Investigamos todos os relatos de viés e tomamos ações corretivas quando justificado.
O Vocaid NÃO utiliza reconhecimento de emoções, inferência de emoções ou computação afetiva em nenhum dos seus sistemas de IA. Essa proibição é um princípio fundamental de design, não meramente uma medida de conformidade.
O AI Act da UE (Artigo 5(1)(f)), em vigor desde 2 de fevereiro de 2025, proíbe explicitamente o uso de sistemas de IA que inferam emoções no local de trabalho e em instituições educacionais, exceto para fins médicos ou de segurança. Os recursos de análise comportamental do Vocaid produzem apenas resultados factuais e observáveis:
Esses resultados descrevem comportamentos físicos observáveis e NÃO inferem estados emocionais internos como confiança, nervosismo, estresse, entusiasmo ou qualquer outra característica afetiva. Nossa análise comportamental é fundamentalmente diferente do reconhecimento de emoções porque mede o que uma pessoa faz, não o que ela sente.
Proibição Estrita
Os padrões de engenharia do Vocaid proíbem qualquer rótulo de saída de modelo que implique inferência emocional. Todos os resultados de análise comportamental são revisados para garantir que descrevam apenas observações factuais. A violação da proibição de reconhecimento de emoções do AI Act da UE acarreta penalidades de até 35 milhões de euros ou 7% do faturamento anual global.
O Vocaid opera em conformidade com as estruturas regulatórias de IA em múltiplas jurisdições. Abaixo estão as obrigações específicas e nossas medidas de conformidade para cada regulamentação aplicável.
O Vocaid é classificado como um sistema de IA de alto risco nos termos do Anexo III, Categoria 4 (Emprego, Gestão de Trabalhadores e Acesso ao Trabalho Autônomo) do AI Act da UE (Regulamento (UE) 2024/1689). Como provedor de ferramentas de avaliação de contratação com tecnologia de IA, estamos sujeitos aos requisitos do Capítulo 3, Seção 2.
A avaliação de conformidade e o registro no banco de dados da UE (Art. 60) estão em andamento, com conclusão prevista alinhada ao prazo das obrigações de alto risco de 2 de agosto de 2026. A Comissão pode adiar este prazo para 2 de dezembro de 2027 para determinados provedores.
Emotion Recognition
A proibição do reconhecimento de emoções em sistemas de IA no local de trabalho (Art. 5(1)(f)) está em vigor desde 2 de fevereiro de 2025. O Vocaid nunca utilizou reconhecimento de emoções e confirma total conformidade com esta proibição.
O Colorado AI Act, em vigor desde 1 de fevereiro de 2026, estabelece obrigações para desenvolvedores e implantadores de sistemas de IA de alto risco. Como desenvolvedor de ferramentas de avaliação de contratação com IA, o Vocaid reconhece as seguintes obrigações:
Os implantadores do Vocaid (empregadores) têm obrigações independentes nos termos do Colorado AI Act, incluindo a realização de avaliações de impacto e a notificação ao consumidor. Apoiamos os implantadores no cumprimento de suas obrigações por meio da documentação de nossa plataforma e ferramentas de transparência.
O Texas Responsible AI Governance Act, em vigor desde 1 de janeiro de 2026, exige que empresas que implantam sistemas de IA no Texas mantenham estruturas de governança de IA. O Vocaid cumpre os seguintes requisitos:
A plataforma de entrevista e pontuação por IA do Vocaid constitui uma Ferramenta de Decisão de Emprego Automatizada (AEDT) nos termos da NYC Local Law 144. Cumprimos os seguintes requisitos:
Nos termos do Artigo 20 da Lei Geral de Proteção de Dados (LGPD) do Brasil, os titulares dos dados têm o direito de solicitar revisão humana de decisões tomadas exclusivamente por meio de processamento automatizado que afetem seus interesses, incluindo perfilamento. O Vocaid garante:
A reforma de 2025 da Lei Federal de Proteção de Dados Pessoais em Posse de Particulares do México introduz novas obrigações para a tomada de decisão automatizada. O Vocaid cumpre:
A Superintendencia de Industria y Comercio (SIC) da Colômbia emitiu a Circular 001/2025 abordando requisitos de processamento de dados biométricos. Para as operações do Vocaid na Colômbia:
O Vocaid mantém uma estrutura abrangente de governança de IA que aborda o desenvolvimento responsável, a implantação e o monitoramento dos nossos sistemas de IA em todas as jurisdições onde operamos.
Nossas Práticas de Governança
Nossa estrutura de governança de IA é projetada para evoluir com o cenário regulatório. Revisamos e atualizamos regularmente nossas práticas para nos alinhar com novos requisitos do AI Act da UE, Colorado AI Act, Texas Responsible AI Governance Act e outras regulamentações de IA emergentes.
A Vocaid reconhece os seguintes direitos para todos os indivíduos que interagem com nossos sistemas de IA:
Direito de Saber
Você tem o direito de saber que a IA está sendo utilizada no seu processo de entrevista e como ela afeta sua avaliação.
Direito ao Consentimento
Você tem o direito de fornecer consentimento informado antes que dados biométricos (padrões de voz, geometria facial) sejam processados.
Direito de Recusa
Você tem o direito de recusar a gravação de vídeo e a análise comportamental e utilizar o modo apenas áudio sem penalidade.
Direito à Revisão Humana
Você tem o direito de solicitar revisão humana de qualquer pontuação ou avaliação gerada por IA.
Direito de Contestação
Você tem o direito de contestar avaliações geradas por IA e fornecer contexto adicional.
Direito à Explicação
Você tem o direito de receber uma explicação significativa sobre como suas pontuações foram geradas.
Direito de Acesso aos Dados
Você tem o direito de acessar todos os dados coletados sobre você e todos os resultados gerados por IA.
Direito à Exclusão
Você tem o direito de solicitar a exclusão permanente dos seus dados de entrevista, gravações e resultados de IA.
Direito à Não Discriminação
Você tem o direito ao tratamento justo, independentemente da sua raça, gênero, idade, deficiência, sotaque ou outras características pessoais.
Direito a Acomodações
Você tem o direito de solicitar acomodações razoáveis para deficiências que possam afetar a precisão da avaliação por IA.
In accordance with the European Union AI Act (Regulation 2024/1689), Vocaid provides the following technical documentation for our AI systems classified under the Act. Our systems are designed to comply with transparency obligations for AI systems that interact with natural persons.
System Information & Intended Purpose
Training Data & Model Information
Risk Management & Mitigation
Vocaid implements the following measures to mitigate risks associated with AI-assisted assessment:
For the complete technical documentation file or to submit questions regarding EU AI Act compliance, contact support@vocaid.ai. We are committed to full compliance with the Act's requirements as they enter into force.
New York City Local Law 144 (2021) requires employers and employment agencies that use automated employment decision tools (AEDTs) to conduct annual independent bias audits and provide notice to candidates. Vocaid is committed to compliance with LL144 requirements.
Applicability & Scope
Independent Bias Audit
Vocaid will commission an independent bias audit before deploying our AI scoring for B2B hiring decisions in NYC. The audit will evaluate:
Candidate Notice
In compliance with LL144, Vocaid provides the following notice to candidates evaluated for NYC employment opportunities: An automated employment decision tool (AEDT) will be used in connection with the assessment of your job application. The AEDT evaluates your interview responses for communication clarity, technical knowledge, problem-solving ability, and relevance. You may request an alternative selection process or accommodation by contacting the employer directly or by emailing support@vocaid.ai.
The bias audit summary will be published on this page once completed. Vocaid retains bias audit results for at least four years as required by law. For questions about LL144 compliance, contact support@vocaid.ai.
A Vocaid utiliza os seguintes serviços de IA de terceiros. Mantemos Acordos de Processamento de Dados com cada provedor para garantir que seus dados sejam tratados de forma responsável.
Para dúvidas sobre nossas práticas de IA, para exercer seus direitos ou para reportar uma preocupação:
E-mail: support@vocaid.ai
Levamos todas as consultas relacionadas à IA a sério e buscamos responder em até 15 dias úteis.