コンテンツにスキップ
Vocaid

Subscribe to our newsletter

Weekly digest of new blog posts. Unsubscribe anytime.

Vocaid

Turn interviews into measurable progress.

Product

  • Interview Practice
  • How It Works

開発者

  • APIリファレンス
  • Vocaid Connect

Company

  • About

Legal

  • Privacy Policy
  • Terms of Use
  • Cookieポリシー
  • AIの透明性
  • 個人情報を販売しないでください

© 2026 Vocaid. All rights reserved.

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.

    This is a courtesy translation. The English version is the legally binding document.

    AI Transparency & Candidate Rights

    Last updated: 2026年2月28日

    Table of Contents

    Table of Contents

    1. Overview

    Vocaid is committed to transparency about how artificial intelligence is used in our platform. This page provides a comprehensive overview of our AI systems, how they generate outputs, their known limitations, and your rights as a user.

    We believe that every person who interacts with AI-powered hiring tools has the right to understand how those tools work and how they may affect decisions about their career.

    2. AI Systems Inventory

    Vocaid uses the following AI systems in its platform. Each system is described with its purpose, the data it processes, and the safeguards in place.

    Voice Interview AI

    Conducts real-time voice-based interviews using natural language processing

    Data Processed

    • •Audio input from microphone
    • •Job description and resume content
    • •Conversation context from current session

    Outputs

    • •Natural language interview questions
    • •Follow-up questions based on responses
    • •Real-time speech-to-text transcription

    Known Limitations

    • •May misunderstand heavy accents or dialects
    • •Transcription accuracy varies with audio quality
    • •Cannot assess physical demonstrations or hands-on skills
    • •Response quality depends on internet connection stability

    Human Oversight

    All AI-generated scores are presented as recommendations. B2B hiring managers retain full decision authority. Candidates may request human review.

    Behavioral Analysis

    Analyzes non-verbal communication signals during video interviews for coaching feedback

    Data Processed

    • •Video frames (sampled, not continuously stored)
    • •Face detection coordinates (not facial recognition)
    • •Gaze direction estimates
    • •Head position and movement patterns

    Outputs

    • •Eye contact consistency percentage
    • •Posture and engagement indicators
    • •Response timing metrics
    • •Gaze tracking heatmap data

    Known Limitations

    • •Accuracy depends on camera quality and lighting
    • •Cannot assess emotional state (emotion recognition is prohibited)
    • •May be less accurate for certain face shapes or skin tones
    • •Requires frontal camera position for reliable results

    Human Oversight

    Behavioral signals are supplementary coaching data only. They are never the sole basis for scoring. Users can opt out entirely and use audio-only mode.

    ATS Resume Scoring

    Analyzes resume content against job descriptions to provide compatibility scoring

    Data Processed

    • •Resume text content
    • •Job description requirements
    • •Industry-standard keyword databases

    Outputs

    • •Overall compatibility score (0-100)
    • •Keyword match analysis
    • •Missing skills identification
    • •Format and structure recommendations

    Known Limitations

    • •Cannot verify claims made in resumes
    • •May undervalue non-traditional career paths
    • •Keyword matching may miss equivalent terminology
    • •Does not assess soft skills or cultural fit

    Human Oversight

    ATS scores are advisory tools for resume improvement. They do not determine interview access or hiring outcomes.

    Liveness Detection

    Verifies that a real person is present during the interview session to prevent fraud

    Data Processed

    • •Video frames during verification
    • •Face detection coordinates
    • •Head movement tracking

    Outputs

    • •Pass/fail liveness verification result
    • •Confidence score (internal use only)

    Known Limitations

    • •May fail in poor lighting conditions
    • •Requires camera access (can be skipped with fallback)
    • •May be less reliable with certain accessories (masks, heavy makeup)

    Human Oversight

    Liveness verification is a binary pass/fail check. Failed verification can be retried or skipped. It does not affect interview scoring.

    3. Scoring Methodology

    Vocaid's interview scoring evaluates candidates across multiple dimensions using AI analysis of their spoken responses. Scores reflect the AI's assessment of demonstrated competencies, not the person's inherent abilities.

    Scoring Dimensions

    • Communication Clarity: How clearly and coherently ideas are expressed
    • Technical Knowledge: Demonstrated understanding of relevant technical concepts
    • Problem-Solving: Approach to analyzing and solving presented challenges
    • Relevance: How well responses address the specific question asked
    • Depth: Level of detail and substantive content in responses

    Scores range from 0 to 100 and represent relative assessments. They should be interpreted as coaching feedback, not absolute measurements. Scores may vary across sessions due to question variation, AI model updates, and response differences.

    4. Bias Prevention

    We are committed to ensuring our AI systems do not discriminate against any individual or group based on protected characteristics including race, gender, age, disability, national origin, or other legally protected categories.

    Our Bias Prevention Measures

    • Regular testing of AI outputs across demographic groups to identify disparate impact
    • Prohibition of emotion recognition in workplace assessment contexts (EU AI Act compliance)
    • Scoring based on content and communication quality, not voice characteristics, accent, or appearance
    • Continuous monitoring of score distributions for statistical anomalies
    • Planned independent bias audit by a qualified third-party auditor (per NYC Local Law 144 requirements)

    If you believe you have experienced bias in AI-generated scores or feedback, please report it to support@vocaid.ai. We investigate all bias reports and take corrective action where warranted.

    5. 感情認識の禁止

    VocaidはいかなるAIシステムにおいても感情認識、感情推論、または感情コンピューティングを使用しません。この禁止は単なるコンプライアンス措置ではなく、中核的な設計原則です。

    EU AI法(第5条(1)(f))は2025年2月2日から施行され、医療または安全目的を除き、職場および教育機関における感情を推論するAIシステムの使用を明示的に禁止しています。Vocaidの行動分析機能は、事実に基づく観察可能なアウトプットのみを生成します:

    • アイコンタクトの一貫性パーセンテージ(カメラに対する視線方向で測定)
    • 姿勢指標(ビデオフレームから検出される頭の位置、肩のアライメント)
    • 応答タイミングメトリクス(質問と回答の間の持続時間)
    • 視線追跡ヒートマップデータ(視覚的注意の方向)

    これらのアウトプットは観察可能な身体的行動を記述するものであり、自信、緊張、ストレス、熱意、またはその他の感情的特性などの内部的な感情状態を推論するものではありません。当社の行動分析は、人が何を感じているかではなく、何をしているかを測定するため、感情認識とは根本的に異なります。

    厳格な禁止

    Vocaidのエンジニアリング基準は、感情推論を示唆するモデル出力ラベルを禁止しています。すべての行動分析出力は、事実の観察のみを記述していることを確認するためにレビューされます。EU AI法の感情認識禁止に違反した場合、最大3,500万ユーロまたはグローバル年間売上高の7%のペナルティが科せられます。

    6. 規制コンプライアンス

    Vocaidは複数の法域のAI規制枠組みに準拠して運営しています。以下は、適用される各規制の具体的な義務と当社のコンプライアンス措置です。

    EU AI法コンプライアンス

    VocaidはEU AI法(規則(EU) 2024/1689)の附属書III、カテゴリ4(雇用、労働者管理および自営業へのアクセス)に基づく高リスクAIシステムとして分類されています。AI搭載の採用評価ツールのプロバイダーとして、当社は第3章第2節の要件に従います。

    • リスク管理システム(第9条):当社はAIシステムのライフサイクル全体にわたってリスクを特定、評価、軽減する文書化されたリスク管理システムを維持しています
    • データガバナンス(第10条):トレーニング、検証、テストのデータセットは、品質、代表性、バイアス検出を確保するデータガバナンスおよび管理慣行に従います
    • 技術文書(第11条):当社はAIシステム、その機能、制限、使用された方法論を記述する包括的な技術文書を維持しています
    • 記録保持(第12条):AIシステム運用の自動ログにより、システム動作のトレーサビリティが可能になります
    • 透明性(第13条):このAI透明性ページは、システムの機能と制限に関する明確な情報を提供することにより、当社の透明性義務を果たします
    • 人間の監視(第14条):すべてのAI生成スコアは助言的なものです。人間の意思決定者(採用マネージャー)が雇用決定の権限を保持します。B2Bワークフローにオーバーライド機能が組み込まれています。
    • 正確性、堅牢性、サイバーセキュリティ(第15条):当社は適切なレベルの正確性、堅牢性、サイバーセキュリティを確保する措置を実施しています
    • 基本的権利影響評価(第27条):当社はEU市場での展開前に基本的権利影響評価を実施することにコミットしています

    適合性評価およびEUデータベース登録(第60条)は進行中であり、2026年8月2日の高リスク義務期限に合わせた完了を目標としています。欧州委員会は一部のプロバイダーについてこの期限を2027年12月2日まで延長する可能性があります。

    Emotion Recognition

    職場AIシステムにおける感情認識の禁止(第5条(1)(f))は2025年2月2日から施行されています。Vocaidは感情認識を使用したことはなく、この禁止の完全な遵守を確認します。

    コロラドAI法(SB 24-205)

    2026年2月1日から施行されるコロラドAI法は、高リスクAIシステムの開発者およびデプロイヤーに義務を課しています。AI採用評価ツールの開発者として、Vocaidは以下の義務を認識しています:

    • 開発者開示:当社はデプロイヤー(当社プラットフォームを使用する雇用主)に、AIシステムの意図された用途、既知の制限、リスク軽減措置を記述した文書を提供します
    • リスク管理:当社はアルゴリズム差別の既知のまたは合理的に予測可能なリスクに対処するための合理的なリスク管理慣行を維持しています
    • 消費者通知:高リスクAIシステムが消費者に関する重大な決定を行うまたは実質的に影響を与える場合、消費者(候補者)に通知されます
    • コンプライアンス声明:当社が開発する高リスクAIシステムの種類とアルゴリズム差別のリスクを管理する方法を要約した声明をウェブサイト上で公開します
    • 司法長官協力:コンプライアンスの評価においてコロラド州司法長官と協力し、要求に応じて文書を提供します

    Vocaidのデプロイヤー(雇用主)はコロラドAI法の下で独立した義務を負っており、影響評価の実施と消費者通知の提供が含まれます。当社はプラットフォーム文書と透明性ツールを通じて、デプロイヤーが義務を果たすことを支援します。

    テキサス責任あるAIガバナンス法

    2026年1月1日から施行されるテキサス責任あるAIガバナンス法は、テキサス州でAIシステムを展開する企業にAIガバナンスフレームワークの維持を求めています。Vocaidは以下の要件に準拠しています:

    • AIガバナンスフレームワーク:当社はAIガバナンス慣行の内部文書を維持しており、要求に応じてテキサス州司法長官に提供可能です
    • 禁止された用途:当社のAIシステムは自傷行為、犯罪活動、または違法な差別を促進しません
    • 透明性:当社は採用評価ツールにおけるAI使用の明確な開示を提供します
    • 生体データ:当社はAI処理のために生体データが収集される場合を明確にし、テキサス州法の下で適切な同意を取得します

    NYCローカル法144(AEDT)

    VocaidのAI面接およびスコアリングプラットフォームは、NYCローカル法144の下で自動雇用意思決定ツール(AEDT)を構成します。当社は以下の要件に準拠しています:

    • 年次バイアス監査:当社は資格のある第三者監査人による独立したバイアス監査を実施し、性別、人種/民族、および交差カテゴリ別の選択率を分析することにコミットしています
    • 公開サマリー:バイアス監査サマリーは各監査完了後6か月以内に当社ウェブサイトで公開されます
    • 候補者通知:雇用決定においてAEDTが使用される前に、少なくとも10営業日前に候補者に通知を提供します
    • データ開示:候補者は収集されたデータ、そのソース、および雇用主のデータ保持ポリシーに関する情報を要求できます

    ブラジルLGPD第20条

    ブラジルのLei Geral de Proteção de Dados(LGPD)第20条の下、データ主体はプロファイリングを含む利益に影響を与える自動処理のみに基づく決定の人間によるレビューを要求する権利があります。Vocaidは以下を保証します:

    • 当社のAIシステムにより評価された候補者は、プライバシーセンターまたはEncarregado(DPO)への連絡を通じて、自動決定の人間によるレビューを要求できます
    • 当社は自動意思決定で使用される基準と手順についての透明性を提供します
    • すべてのAIスコアは助言的な推奨として提示され、拘束力のある決定としてではありません

    メキシコLFPDPPP(2025年改正)

    メキシコの民間事業者が保有する個人データの保護に関する連邦法の2025年改正は、自動意思決定に新たな義務を導入しています。Vocaidは以下に準拠しています:

    • 自動意思決定の透明性:候補者の評価に自動意思決定技術が使用される場合に開示します
    • 人間の介入の権利:データ主体は法的効果を生じる、または同様に重大な影響を与える自動決定における人間の介入を要求できます
    • 影響評価:個人データの自動処理の影響評価を実施することにコミットしています
    • 強化された同意:自動意思決定による個人データの処理について、具体的で十分な情報に基づく同意を取得します

    コロンビアSIC Circular 001/2025

    コロンビアのSuperintendencia de Industria y Comercio(SIC)は、生体データ処理要件に関するCircular 001/2025を発行しました。コロンビアにおけるVocaidの事業について:

    • 生体認証の比例性:生体データの収集が記載された目的に比例し、厳密に必要なものを超えないことを保証します
    • 目的の制限:生体データは面接確認とコミュニケーションコーチングフィードバックのためにのみ収集され、監視や継続的なモニタリングのためではありません

    7. AIガバナンスフレームワーク

    Vocaidは、当社が事業を行うすべての法域において、AIシステムの責任ある開発、展開、監視に対応する包括的なAIガバナンスフレームワークを維持しています。

    当社のガバナンス慣行

    • リスク管理:バイアス、差別、不正確さのリスクを含む、AIシステムに関連するリスクの体系的な特定、評価、軽減
    • バイアステストとモニタリング:不均等な影響や不公平なバイアスパターンを特定し対処するための人口統計グループ全体でのAI出力の定期テスト
    • 継続的モニタリング:パフォーマンスの低下、ドリフト、新たなバイアスに対する展開済みAIシステムの継続的な監視
    • モデルバージョニング:すべてのAIモデル更新のバージョン管理と文書化、重大な変更の展開前の影響評価
    • インシデント報告:バイアスの苦情、正確性の問題、システム障害を含むAI関連インシデントの報告、調査、是正のための内部プロセス
    • ステークホルダーエンゲージメント:候補者、雇用主、規制当局、市民社会組織を含む影響を受けるステークホルダーとの定期的なエンゲージメント

    当社のAIガバナンスフレームワークは、規制環境とともに進化するよう設計されています。EU AI法、コロラドAI法、テキサス責任あるAIガバナンス法、およびその他の新興AI規制の新たな要件に合わせて、当社の慣行を定期的にレビューし更新しています。

    8. Candidate AI Rights

    Vocaid recognizes the following rights for all individuals who interact with our AI systems:

    1

    Right to Know

    You have the right to know that AI is being used in your interview process and how it affects your assessment.

    2

    Right to Consent

    You have the right to provide informed consent before biometric data (voice patterns, facial geometry) is processed.

    3

    Right to Opt Out

    You have the right to opt out of video recording and behavioral analysis and use audio-only mode without penalty.

    4

    Right to Human Review

    You have the right to request human review of any AI-generated score or assessment.

    5

    Right to Appeal

    You have the right to contest AI-generated assessments and provide additional context.

    6

    Right to Explanation

    You have the right to receive a meaningful explanation of how your scores were generated.

    7

    Right to Data Access

    You have the right to access all data collected about you and all AI-generated outputs.

    8

    Right to Deletion

    You have the right to request permanent deletion of your interview data, recordings, and AI outputs.

    9

    Right to Non-Discrimination

    You have the right to fair treatment regardless of your race, gender, age, disability, accent, or other personal characteristics.

    10

    Right to Accommodations

    You have the right to request reasonable accommodations for disabilities that may affect AI assessment accuracy.

    6. EU AI Act Compliance (Annex IV)

    In accordance with the European Union AI Act (Regulation 2024/1689), Vocaid provides the following technical documentation for our AI systems classified under the Act. Our systems are designed to comply with transparency obligations for AI systems that interact with natural persons.

    System Information & Intended Purpose

    • Provider: Vocaid, Inc.
    • System Name: Vocaid AI Interview Platform
    • Version: Production (continuously updated)
    • Intended Purpose: AI-powered interview practice, resume scoring, and behavioral communication coaching
    • Intended Users: Job seekers (B2C) and hiring organizations (B2B)
    • EU Representative: Contact support@vocaid.ai for EU representative details
    • Risk Classification: Limited Risk (transparency obligations apply under Article 50)

    Training Data & Model Information

    • Vocaid uses third-party foundation models (Azure OpenAI GPT-4o) — we do not train custom models on user data
    • Resume scoring uses keyword and semantic matching algorithms, not machine learning classifiers
    • Behavioral analysis uses computer vision algorithms for face detection and gaze estimation, not facial recognition
    • No biometric identification or categorization is performed
    • Emotion recognition is explicitly prohibited in our systems (EU AI Act Article 5(1)(f) compliance)

    Risk Management & Mitigation

    Vocaid implements the following measures to mitigate risks associated with AI-assisted assessment:

    • Human oversight: All AI-generated scores are advisory — hiring decisions are always made by humans
    • Bias monitoring: Regular statistical analysis of score distributions across demographic groups
    • Transparency: Full disclosure of AI involvement before any assessment begins
    • Data minimization: Only data necessary for the specific assessment purpose is collected
    • User control: Users can opt out of video/behavioral analysis at any time without penalty
    • Logging: All AI decisions are logged for auditability per Article 12 requirements
    • Incident reporting: Processes in place for reporting serious incidents to relevant authorities

    For the complete technical documentation file or to submit questions regarding EU AI Act compliance, contact support@vocaid.ai. We are committed to full compliance with the Act's requirements as they enter into force.

    7. NYC Local Law 144 Compliance

    New York City Local Law 144 (2021) requires employers and employment agencies that use automated employment decision tools (AEDTs) to conduct annual independent bias audits and provide notice to candidates. Vocaid is committed to compliance with LL144 requirements.

    Applicability & Scope

    • Vocaid's AI interview scoring system qualifies as an AEDT when used by employers to substantially assist or replace discretionary decision-making in hiring
    • LL144 applies to candidates for employment opportunities in New York City
    • For B2C users (personal practice), the tool is advisory only and does not constitute an AEDT
    • For B2B employers using Vocaid to screen candidates, LL144 requirements apply

    Independent Bias Audit

    Vocaid will commission an independent bias audit before deploying our AI scoring for B2B hiring decisions in NYC. The audit will evaluate:

    • Impact ratio: Scoring rates for each race/ethnicity category compared to the most selected category
    • Impact ratio: Scoring rates for each sex category compared to the most selected category
    • Median scores: Comparison of median AI-generated scores across demographic categories
    • Selection rates: Analysis of pass/fail rates across protected categories at various score thresholds
    • Intersectional analysis: Combined race/ethnicity and sex impact ratios where data is sufficient

    Candidate Notice

    In compliance with LL144, Vocaid provides the following notice to candidates evaluated for NYC employment opportunities: An automated employment decision tool (AEDT) will be used in connection with the assessment of your job application. The AEDT evaluates your interview responses for communication clarity, technical knowledge, problem-solving ability, and relevance. You may request an alternative selection process or accommodation by contacting the employer directly or by emailing support@vocaid.ai.

    The bias audit summary will be published on this page once completed. Vocaid retains bias audit results for at least four years as required by law. For questions about LL144 compliance, contact support@vocaid.ai.

    8. Third-Party AI Services

    Vocaid uses the following third-party AI services. We maintain Data Processing Agreements with each provider to ensure your data is handled responsibly.

    • Azure OpenAI Service (Microsoft) — Powers interview conversation, question generation, and performance scoring↗
    • Deepgram — Real-time speech-to-text transcription↗
    • Azure Face API (Microsoft) — Face detection and liveness verification (not facial recognition)↗

    9. Contact Us

    For questions about our AI practices, to exercise your rights, or to report a concern:

    Email: support@vocaid.ai

    We take all AI-related inquiries seriously and aim to respond within 15 business days.