Pular para o conteúdo
Vocaid

Subscribe to our newsletter

Weekly digest of new blog posts. Unsubscribe anytime.

Vocaid

Turn interviews into measurable progress.

Product

  • Interview Practice
  • How It Works

Desenvolvedores

  • Referência da API
  • Vocaid Connect

Company

  • About

Legal

  • Privacy Policy
  • Terms of Use
  • Política de Cookies
  • Transparência da IA
  • Não Venda Minhas Informações

© 2026 Vocaid. All rights reserved.

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.

    Esta é uma tradução de cortesia. A versão em inglês é o documento juridicamente vinculante.

    Transparência de IA e Direitos do Candidato

    Última atualização: 28 de fevereiro de 2026

    Índice

    Índice

    1. Visão Geral

    A Vocaid está comprometida com a transparência sobre como a inteligência artificial é utilizada em nossa plataforma. Esta página fornece uma visão abrangente dos nossos sistemas de IA, como eles geram resultados, suas limitações conhecidas e seus direitos como usuário.

    Acreditamos que toda pessoa que interage com ferramentas de contratação com tecnologia de IA tem o direito de entender como essas ferramentas funcionam e como podem afetar decisões sobre sua carreira.

    2. Inventário de Sistemas de IA

    A Vocaid utiliza os seguintes sistemas de IA em sua plataforma. Cada sistema é descrito com sua finalidade, os dados que processa e as salvaguardas implementadas.

    IA de Entrevista por Voz

    Conduz entrevistas por voz em tempo real utilizando processamento de linguagem natural

    Data Processed

    • •Entrada de áudio do microfone
    • •Descrição da vaga e conteúdo do currículo
    • •Contexto da conversação da sessão atual

    Outputs

    • •Perguntas de entrevista em linguagem natural
    • •Perguntas de acompanhamento baseadas nas respostas
    • •Transcrição de fala para texto em tempo real

    Known Limitations

    • •Pode não compreender sotaques ou dialetos fortes
    • •A precisão da transcrição varia com a qualidade do áudio
    • •Não consegue avaliar demonstrações físicas ou habilidades práticas
    • •A qualidade das respostas depende da estabilidade da conexão com a internet

    Human Oversight

    Todas as pontuações geradas por IA são apresentadas como recomendações. Gestores de contratação B2B mantêm total autoridade de decisão. Candidatos podem solicitar revisão humana.

    Análise Comportamental

    Analisa sinais de comunicação não verbal durante entrevistas em vídeo para feedback de coaching

    Data Processed

    • •Quadros de vídeo (amostrados, não armazenados continuamente)
    • •Coordenadas de detecção facial (não reconhecimento facial)
    • •Estimativas de direção do olhar
    • •Posição da cabeça e padrões de movimento

    Outputs

    • •Percentual de consistência do contato visual
    • •Indicadores de postura e engajamento
    • •Métricas de tempo de resposta
    • •Dados de mapa de calor do rastreamento do olhar

    Known Limitations

    • •A precisão depende da qualidade da câmera e da iluminação
    • •Não consegue avaliar o estado emocional (reconhecimento de emoções é proibido)
    • •Pode ser menos preciso para determinados formatos de rosto ou tons de pele
    • •Requer posição frontal da câmera para resultados confiáveis

    Human Oversight

    Sinais comportamentais são dados suplementares apenas para coaching. Eles nunca são a única base para pontuação. Usuários podem optar por não participar e utilizar o modo apenas áudio.

    Pontuação ATS de Currículo

    Analisa o conteúdo do currículo em comparação com descrições de vagas para fornecer pontuação de compatibilidade

    Data Processed

    • •Conteúdo textual do currículo
    • •Requisitos da descrição da vaga
    • •Bancos de dados de palavras-chave padrão da indústria

    Outputs

    • •Pontuação geral de compatibilidade (0-100)
    • •Análise de correspondência de palavras-chave
    • •Identificação de habilidades ausentes
    • •Recomendações de formato e estrutura

    Known Limitations

    • •Não consegue verificar afirmações feitas em currículos
    • •Pode subestimar trajetórias profissionais não tradicionais
    • •A correspondência de palavras-chave pode não identificar terminologia equivalente
    • •Não avalia habilidades interpessoais ou adequação cultural

    Human Oversight

    As pontuações ATS são ferramentas consultivas para melhoria do currículo. Elas não determinam o acesso à entrevista ou os resultados de contratação.

    Detecção de Presença

    Verifica se uma pessoa real está presente durante a sessão de entrevista para prevenir fraudes

    Data Processed

    • •Quadros de vídeo durante a verificação
    • •Coordenadas de detecção facial
    • •Rastreamento de movimento da cabeça

    Outputs

    • •Resultado de verificação de presença aprovado/reprovado
    • •Pontuação de confiança (uso interno apenas)

    Known Limitations

    • •Pode falhar em condições de pouca iluminação
    • •Requer acesso à câmera (pode ser ignorado com alternativa)
    • •Pode ser menos confiável com determinados acessórios (máscaras, maquiagem pesada)

    Human Oversight

    A verificação de presença é uma verificação binária aprovado/reprovado. Verificação com falha pode ser repetida ou ignorada. Não afeta a pontuação da entrevista.

    3. Metodologia de Pontuação

    A pontuação de entrevista da Vocaid avalia candidatos em múltiplas dimensões utilizando análise de IA das suas respostas faladas. As pontuações refletem a avaliação da IA sobre competências demonstradas, não as habilidades inerentes da pessoa.

    Dimensões de Pontuação

    • Clareza na Comunicação: Quão clara e coerentemente as ideias são expressas
    • Conhecimento Técnico: Compreensão demonstrada de conceitos técnicos relevantes
    • Resolução de Problemas: Abordagem para analisar e resolver desafios apresentados
    • Relevância: Quão bem as respostas abordam a pergunta específica feita
    • Profundidade: Nível de detalhe e conteúdo substancial nas respostas

    As pontuações variam de 0 a 100 e representam avaliações relativas. Devem ser interpretadas como feedback de coaching, não como medições absolutas. As pontuações podem variar entre sessões devido à variação de perguntas, atualizações do modelo de IA e diferenças nas respostas.

    4. Prevenção de Vieses

    Estamos comprometidos em garantir que nossos sistemas de IA não discriminem qualquer indivíduo ou grupo com base em características protegidas, incluindo raça, gênero, idade, deficiência, origem nacional ou outras categorias legalmente protegidas.

    Nossas Medidas de Prevenção de Vieses

    • Testes regulares dos resultados de IA em diferentes grupos demográficos para identificar impacto desproporcional
    • Proibição de reconhecimento de emoções em contextos de avaliação profissional (conformidade com o AI Act da UE)
    • Pontuação baseada em conteúdo e qualidade de comunicação, não em características de voz, sotaque ou aparência
    • Monitoramento contínuo das distribuições de pontuação para anomalias estatísticas
    • Auditoria independente de vieses planejada por um auditor terceirizado qualificado (conforme requisitos da NYC Local Law 144)

    Se você acredita que foi alvo de viés nas pontuações ou no feedback gerados por IA, por favor reporte para support@vocaid.ai. Investigamos todos os relatos de viés e tomamos ações corretivas quando justificado.

    5. Proibição de Reconhecimento de Emoções

    O Vocaid NÃO utiliza reconhecimento de emoções, inferência de emoções ou computação afetiva em nenhum dos seus sistemas de IA. Essa proibição é um princípio fundamental de design, não meramente uma medida de conformidade.

    O AI Act da UE (Artigo 5(1)(f)), em vigor desde 2 de fevereiro de 2025, proíbe explicitamente o uso de sistemas de IA que inferam emoções no local de trabalho e em instituições educacionais, exceto para fins médicos ou de segurança. Os recursos de análise comportamental do Vocaid produzem apenas resultados factuais e observáveis:

    • Percentual de consistência do contato visual (medido pela direção do olhar em relação à câmera)
    • Indicadores de postura (posição da cabeça, alinhamento dos ombros detectados a partir de quadros de vídeo)
    • Métricas de tempo de resposta (duração entre a pergunta e a resposta)
    • Dados de mapa de calor do rastreamento do olhar (direção da atenção visual)

    Esses resultados descrevem comportamentos físicos observáveis e NÃO inferem estados emocionais internos como confiança, nervosismo, estresse, entusiasmo ou qualquer outra característica afetiva. Nossa análise comportamental é fundamentalmente diferente do reconhecimento de emoções porque mede o que uma pessoa faz, não o que ela sente.

    Proibição Estrita

    Os padrões de engenharia do Vocaid proíbem qualquer rótulo de saída de modelo que implique inferência emocional. Todos os resultados de análise comportamental são revisados para garantir que descrevam apenas observações factuais. A violação da proibição de reconhecimento de emoções do AI Act da UE acarreta penalidades de até 35 milhões de euros ou 7% do faturamento anual global.

    6. Conformidade Regulatória

    O Vocaid opera em conformidade com as estruturas regulatórias de IA em múltiplas jurisdições. Abaixo estão as obrigações específicas e nossas medidas de conformidade para cada regulamentação aplicável.

    Conformidade com o AI Act da UE

    O Vocaid é classificado como um sistema de IA de alto risco nos termos do Anexo III, Categoria 4 (Emprego, Gestão de Trabalhadores e Acesso ao Trabalho Autônomo) do AI Act da UE (Regulamento (UE) 2024/1689). Como provedor de ferramentas de avaliação de contratação com tecnologia de IA, estamos sujeitos aos requisitos do Capítulo 3, Seção 2.

    • Sistema de Gestão de Riscos (Art. 9): Mantemos um sistema documentado de gestão de riscos que identifica, avalia e mitiga riscos ao longo do ciclo de vida do sistema de IA
    • Governança de Dados (Art. 10): Os conjuntos de dados de treinamento, validação e teste estão sujeitos a práticas de governança e gestão de dados que garantem qualidade, representatividade e detecção de vieses
    • Documentação Técnica (Art. 11): Mantemos documentação técnica abrangente que descreve nossos sistemas de IA, suas capacidades, limitações e as metodologias utilizadas
    • Manutenção de Registros (Art. 12): O registro automático das operações do sistema de IA permite a rastreabilidade do comportamento do sistema
    • Transparência (Art. 13): Esta página de Transparência de IA cumpre nossas obrigações de transparência, fornecendo informações claras sobre capacidades e limitações do sistema
    • Supervisão Humana (Art. 14): Todas as pontuações geradas por IA são consultivas. Os tomadores de decisão humanos (gerentes de contratação) mantêm autoridade sobre decisões de emprego. Capacidades de substituição estão integradas nos fluxos de trabalho B2B.
    • Precisão, Robustez e Cibersegurança (Art. 15): Implementamos medidas para garantir níveis adequados de precisão, robustez e cibersegurança
    • Avaliação de Impacto sobre Direitos Fundamentais (Art. 27): Comprometemo-nos a realizar avaliações de impacto sobre direitos fundamentais antes da implantação nos mercados da UE

    A avaliação de conformidade e o registro no banco de dados da UE (Art. 60) estão em andamento, com conclusão prevista alinhada ao prazo das obrigações de alto risco de 2 de agosto de 2026. A Comissão pode adiar este prazo para 2 de dezembro de 2027 para determinados provedores.

    Emotion Recognition

    A proibição do reconhecimento de emoções em sistemas de IA no local de trabalho (Art. 5(1)(f)) está em vigor desde 2 de fevereiro de 2025. O Vocaid nunca utilizou reconhecimento de emoções e confirma total conformidade com esta proibição.

    Colorado AI Act (SB 24-205)

    O Colorado AI Act, em vigor desde 1 de fevereiro de 2026, estabelece obrigações para desenvolvedores e implantadores de sistemas de IA de alto risco. Como desenvolvedor de ferramentas de avaliação de contratação com IA, o Vocaid reconhece as seguintes obrigações:

    • Divulgação do Desenvolvedor: Fornecemos aos implantadores (empregadores que utilizam nossa plataforma) documentação descrevendo os usos pretendidos, limitações conhecidas e medidas de mitigação de riscos dos nossos sistemas de IA
    • Gestão de Riscos: Mantemos práticas razoáveis de gestão de riscos para abordar riscos conhecidos ou razoavelmente previsíveis de discriminação algorítmica
    • Notificação ao Consumidor: Os consumidores (candidatos) são notificados quando um sistema de IA de alto risco toma ou influencia substancialmente uma decisão consequencial sobre eles
    • Declaração de Conformidade: Disponibilizaremos em nosso site uma declaração resumindo os tipos de sistemas de IA de alto risco que desenvolvemos e como gerenciamos riscos de discriminação algorítmica
    • Cooperação com o Procurador-Geral: Cooperaremos com o Procurador-Geral do Colorado na avaliação de conformidade e forneceremos documentação mediante solicitação

    Os implantadores do Vocaid (empregadores) têm obrigações independentes nos termos do Colorado AI Act, incluindo a realização de avaliações de impacto e a notificação ao consumidor. Apoiamos os implantadores no cumprimento de suas obrigações por meio da documentação de nossa plataforma e ferramentas de transparência.

    Texas Responsible AI Governance Act

    O Texas Responsible AI Governance Act, em vigor desde 1 de janeiro de 2026, exige que empresas que implantam sistemas de IA no Texas mantenham estruturas de governança de IA. O Vocaid cumpre os seguintes requisitos:

    • Estrutura de Governança de IA: Mantemos documentação interna de nossas práticas de governança de IA, disponível para o Procurador-Geral do Texas mediante solicitação
    • Usos Proibidos: Nossos sistemas de IA não incentivam autolesão, atividade criminosa ou discriminação ilegal
    • Transparência: Fornecemos divulgação clara do uso de IA em nossas ferramentas de avaliação de contratação
    • Dados Biométricos: Esclarecemos quando dados biométricos são coletados para processamento por IA e obtemos o consentimento adequado nos termos da legislação do Texas

    NYC Local Law 144 (AEDT)

    A plataforma de entrevista e pontuação por IA do Vocaid constitui uma Ferramenta de Decisão de Emprego Automatizada (AEDT) nos termos da NYC Local Law 144. Cumprimos os seguintes requisitos:

    • Auditoria Anual de Vieses: Comprometemo-nos a realizar uma auditoria independente de vieses por um auditor terceirizado qualificado, analisando taxas de seleção por sexo, raça/etnia e categorias interseccionais
    • Resumo Público: O resumo da auditoria de vieses será publicado em nosso site dentro de 6 meses após a conclusão de cada auditoria
    • Notificação ao Candidato: Fornecemos aos candidatos pelo menos 10 dias úteis de aviso antes que uma AEDT seja utilizada em uma decisão de emprego, conforme implementado em nosso sistema de notificação de candidatos
    • Divulgação de Dados: Os candidatos podem solicitar informações sobre os dados coletados, a fonte desses dados e a política de retenção de dados do empregador

    LGPD Artigo 20 (Brasil)

    Nos termos do Artigo 20 da Lei Geral de Proteção de Dados (LGPD) do Brasil, os titulares dos dados têm o direito de solicitar revisão humana de decisões tomadas exclusivamente por meio de processamento automatizado que afetem seus interesses, incluindo perfilamento. O Vocaid garante:

    • Candidatos avaliados por nossos sistemas de IA podem solicitar revisão humana de decisões automatizadas por meio do nosso Centro de Privacidade ou entrando em contato com nosso Encarregado (DPO)
    • Fornecemos transparência sobre os critérios e procedimentos utilizados na tomada de decisão automatizada
    • Todas as pontuações de IA são apresentadas como recomendações consultivas, nunca como decisões vinculantes

    LFPDPPP do México (Reforma 2025)

    A reforma de 2025 da Lei Federal de Proteção de Dados Pessoais em Posse de Particulares do México introduz novas obrigações para a tomada de decisão automatizada. O Vocaid cumpre:

    • Transparência na Tomada de Decisão Automatizada: Divulgamos quando a tecnologia de tomada de decisão automatizada é utilizada na avaliação de candidatos
    • Direito à Intervenção Humana: Os titulares dos dados podem solicitar intervenção humana em decisões automatizadas que produzam efeitos legais ou que os afetem de maneira igualmente significativa
    • Avaliação de Impacto: Comprometemo-nos a realizar avaliações de impacto para o processamento automatizado de dados pessoais
    • Consentimento Reforçado: Obtemos consentimento específico e informado para o processamento de dados pessoais por meio de tomada de decisão automatizada

    Circular 001/2025 da SIC (Colômbia)

    A Superintendencia de Industria y Comercio (SIC) da Colômbia emitiu a Circular 001/2025 abordando requisitos de processamento de dados biométricos. Para as operações do Vocaid na Colômbia:

    • Proporcionalidade Biométrica: Garantimos que qualquer coleta de dados biométricos seja proporcional à finalidade declarada e não exceda o estritamente necessário
    • Limitação de Finalidade: Dados biométricos são coletados exclusivamente para verificação de entrevista e feedback de coaching de comunicação, não para vigilância ou monitoramento contínuo
    • Conformidade com a SIC: Comprometemo-nos a registrar nossos bancos de dados no RNBD (Registro Nacional de Bases de Datos) conforme exigido pela legislação colombiana

    7. Estrutura de Governança de IA

    O Vocaid mantém uma estrutura abrangente de governança de IA que aborda o desenvolvimento responsável, a implantação e o monitoramento dos nossos sistemas de IA em todas as jurisdições onde operamos.

    Nossas Práticas de Governança

    • Gestão de Riscos: Identificação, avaliação e mitigação sistemáticas de riscos associados aos nossos sistemas de IA, incluindo riscos de viés, discriminação e imprecisão
    • Testes e Monitoramento de Vieses: Testes regulares dos resultados de IA em diferentes grupos demográficos para identificar e abordar padrões de impacto desproporcional ou viés injusto
    • Monitoramento Contínuo: Monitoramento contínuo dos sistemas de IA implantados para degradação de desempenho, desvio e viés emergente
    • Versionamento de Modelos: Controle de versão e documentação de todas as atualizações de modelos de IA, com avaliação de impacto antes da implantação de alterações significativas
    • Relatório de Incidentes: Processos internos para relatar, investigar e remediar incidentes relacionados à IA, incluindo reclamações de viés, problemas de precisão e falhas de sistema
    • Engajamento com Partes Interessadas: Engajamento regular com partes interessadas afetadas, incluindo candidatos, empregadores, reguladores e organizações da sociedade civil

    Nossa estrutura de governança de IA é projetada para evoluir com o cenário regulatório. Revisamos e atualizamos regularmente nossas práticas para nos alinhar com novos requisitos do AI Act da UE, Colorado AI Act, Texas Responsible AI Governance Act e outras regulamentações de IA emergentes.

    8. Direitos de IA do Candidato

    A Vocaid reconhece os seguintes direitos para todos os indivíduos que interagem com nossos sistemas de IA:

    1

    Direito de Saber

    Você tem o direito de saber que a IA está sendo utilizada no seu processo de entrevista e como ela afeta sua avaliação.

    2

    Direito ao Consentimento

    Você tem o direito de fornecer consentimento informado antes que dados biométricos (padrões de voz, geometria facial) sejam processados.

    3

    Direito de Recusa

    Você tem o direito de recusar a gravação de vídeo e a análise comportamental e utilizar o modo apenas áudio sem penalidade.

    4

    Direito à Revisão Humana

    Você tem o direito de solicitar revisão humana de qualquer pontuação ou avaliação gerada por IA.

    5

    Direito de Contestação

    Você tem o direito de contestar avaliações geradas por IA e fornecer contexto adicional.

    6

    Direito à Explicação

    Você tem o direito de receber uma explicação significativa sobre como suas pontuações foram geradas.

    7

    Direito de Acesso aos Dados

    Você tem o direito de acessar todos os dados coletados sobre você e todos os resultados gerados por IA.

    8

    Direito à Exclusão

    Você tem o direito de solicitar a exclusão permanente dos seus dados de entrevista, gravações e resultados de IA.

    9

    Direito à Não Discriminação

    Você tem o direito ao tratamento justo, independentemente da sua raça, gênero, idade, deficiência, sotaque ou outras características pessoais.

    10

    Direito a Acomodações

    Você tem o direito de solicitar acomodações razoáveis para deficiências que possam afetar a precisão da avaliação por IA.

    6. EU AI Act Compliance (Annex IV)

    In accordance with the European Union AI Act (Regulation 2024/1689), Vocaid provides the following technical documentation for our AI systems classified under the Act. Our systems are designed to comply with transparency obligations for AI systems that interact with natural persons.

    System Information & Intended Purpose

    • Provider: Vocaid, Inc.
    • System Name: Vocaid AI Interview Platform
    • Version: Production (continuously updated)
    • Intended Purpose: AI-powered interview practice, resume scoring, and behavioral communication coaching
    • Intended Users: Job seekers (B2C) and hiring organizations (B2B)
    • EU Representative: Contact support@vocaid.ai for EU representative details
    • Risk Classification: Limited Risk (transparency obligations apply under Article 50)

    Training Data & Model Information

    • Vocaid uses third-party foundation models (Azure OpenAI GPT-4o) — we do not train custom models on user data
    • Resume scoring uses keyword and semantic matching algorithms, not machine learning classifiers
    • Behavioral analysis uses computer vision algorithms for face detection and gaze estimation, not facial recognition
    • No biometric identification or categorization is performed
    • Emotion recognition is explicitly prohibited in our systems (EU AI Act Article 5(1)(f) compliance)

    Risk Management & Mitigation

    Vocaid implements the following measures to mitigate risks associated with AI-assisted assessment:

    • Human oversight: All AI-generated scores are advisory — hiring decisions are always made by humans
    • Bias monitoring: Regular statistical analysis of score distributions across demographic groups
    • Transparency: Full disclosure of AI involvement before any assessment begins
    • Data minimization: Only data necessary for the specific assessment purpose is collected
    • User control: Users can opt out of video/behavioral analysis at any time without penalty
    • Logging: All AI decisions are logged for auditability per Article 12 requirements
    • Incident reporting: Processes in place for reporting serious incidents to relevant authorities

    For the complete technical documentation file or to submit questions regarding EU AI Act compliance, contact support@vocaid.ai. We are committed to full compliance with the Act's requirements as they enter into force.

    7. NYC Local Law 144 Compliance

    New York City Local Law 144 (2021) requires employers and employment agencies that use automated employment decision tools (AEDTs) to conduct annual independent bias audits and provide notice to candidates. Vocaid is committed to compliance with LL144 requirements.

    Applicability & Scope

    • Vocaid's AI interview scoring system qualifies as an AEDT when used by employers to substantially assist or replace discretionary decision-making in hiring
    • LL144 applies to candidates for employment opportunities in New York City
    • For B2C users (personal practice), the tool is advisory only and does not constitute an AEDT
    • For B2B employers using Vocaid to screen candidates, LL144 requirements apply

    Independent Bias Audit

    Vocaid will commission an independent bias audit before deploying our AI scoring for B2B hiring decisions in NYC. The audit will evaluate:

    • Impact ratio: Scoring rates for each race/ethnicity category compared to the most selected category
    • Impact ratio: Scoring rates for each sex category compared to the most selected category
    • Median scores: Comparison of median AI-generated scores across demographic categories
    • Selection rates: Analysis of pass/fail rates across protected categories at various score thresholds
    • Intersectional analysis: Combined race/ethnicity and sex impact ratios where data is sufficient

    Candidate Notice

    In compliance with LL144, Vocaid provides the following notice to candidates evaluated for NYC employment opportunities: An automated employment decision tool (AEDT) will be used in connection with the assessment of your job application. The AEDT evaluates your interview responses for communication clarity, technical knowledge, problem-solving ability, and relevance. You may request an alternative selection process or accommodation by contacting the employer directly or by emailing support@vocaid.ai.

    The bias audit summary will be published on this page once completed. Vocaid retains bias audit results for at least four years as required by law. For questions about LL144 compliance, contact support@vocaid.ai.

    8. Serviços de IA de Terceiros

    A Vocaid utiliza os seguintes serviços de IA de terceiros. Mantemos Acordos de Processamento de Dados com cada provedor para garantir que seus dados sejam tratados de forma responsável.

    • Azure OpenAI Service (Microsoft) — Alimenta a conversação de entrevista, geração de perguntas e pontuação de desempenho↗
    • Deepgram — Transcrição de fala para texto em tempo real↗
    • Azure Face API (Microsoft) — Detecção facial e verificação de presença (não reconhecimento facial)↗

    9. Fale Conosco

    Para dúvidas sobre nossas práticas de IA, para exercer seus direitos ou para reportar uma preocupação:

    E-mail: support@vocaid.ai

    Levamos todas as consultas relacionadas à IA a sério e buscamos responder em até 15 dias úteis.