انتقل إلى المحتوى
Vocaid

Subscribe to our newsletter

Weekly digest of new blog posts. Unsubscribe anytime.

Vocaid

Turn interviews into measurable progress.

Product

  • Interview Practice
  • How It Works

المطورون

  • مرجع API
  • Vocaid Connect

Company

  • About

Legal

  • Privacy Policy
  • Terms of Use
  • سياسة ملفات تعريف الارتباط
  • شفافية الذكاء الاصطناعي
  • لا تبيعوا معلوماتي

© 2026 Vocaid. All rights reserved.

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.

    This is a courtesy translation. The English version is the legally binding document.

    AI Transparency & Candidate Rights

    Last updated: 28 فبراير 2026

    Table of Contents

    Table of Contents

    1. Overview

    Vocaid is committed to transparency about how artificial intelligence is used in our platform. This page provides a comprehensive overview of our AI systems, how they generate outputs, their known limitations, and your rights as a user.

    We believe that every person who interacts with AI-powered hiring tools has the right to understand how those tools work and how they may affect decisions about their career.

    2. AI Systems Inventory

    Vocaid uses the following AI systems in its platform. Each system is described with its purpose, the data it processes, and the safeguards in place.

    Voice Interview AI

    Conducts real-time voice-based interviews using natural language processing

    Data Processed

    • •Audio input from microphone
    • •Job description and resume content
    • •Conversation context from current session

    Outputs

    • •Natural language interview questions
    • •Follow-up questions based on responses
    • •Real-time speech-to-text transcription

    Known Limitations

    • •May misunderstand heavy accents or dialects
    • •Transcription accuracy varies with audio quality
    • •Cannot assess physical demonstrations or hands-on skills
    • •Response quality depends on internet connection stability

    Human Oversight

    All AI-generated scores are presented as recommendations. B2B hiring managers retain full decision authority. Candidates may request human review.

    Behavioral Analysis

    Analyzes non-verbal communication signals during video interviews for coaching feedback

    Data Processed

    • •Video frames (sampled, not continuously stored)
    • •Face detection coordinates (not facial recognition)
    • •Gaze direction estimates
    • •Head position and movement patterns

    Outputs

    • •Eye contact consistency percentage
    • •Posture and engagement indicators
    • •Response timing metrics
    • •Gaze tracking heatmap data

    Known Limitations

    • •Accuracy depends on camera quality and lighting
    • •Cannot assess emotional state (emotion recognition is prohibited)
    • •May be less accurate for certain face shapes or skin tones
    • •Requires frontal camera position for reliable results

    Human Oversight

    Behavioral signals are supplementary coaching data only. They are never the sole basis for scoring. Users can opt out entirely and use audio-only mode.

    ATS Resume Scoring

    Analyzes resume content against job descriptions to provide compatibility scoring

    Data Processed

    • •Resume text content
    • •Job description requirements
    • •Industry-standard keyword databases

    Outputs

    • •Overall compatibility score (0-100)
    • •Keyword match analysis
    • •Missing skills identification
    • •Format and structure recommendations

    Known Limitations

    • •Cannot verify claims made in resumes
    • •May undervalue non-traditional career paths
    • •Keyword matching may miss equivalent terminology
    • •Does not assess soft skills or cultural fit

    Human Oversight

    ATS scores are advisory tools for resume improvement. They do not determine interview access or hiring outcomes.

    Liveness Detection

    Verifies that a real person is present during the interview session to prevent fraud

    Data Processed

    • •Video frames during verification
    • •Face detection coordinates
    • •Head movement tracking

    Outputs

    • •Pass/fail liveness verification result
    • •Confidence score (internal use only)

    Known Limitations

    • •May fail in poor lighting conditions
    • •Requires camera access (can be skipped with fallback)
    • •May be less reliable with certain accessories (masks, heavy makeup)

    Human Oversight

    Liveness verification is a binary pass/fail check. Failed verification can be retried or skipped. It does not affect interview scoring.

    3. Scoring Methodology

    Vocaid's interview scoring evaluates candidates across multiple dimensions using AI analysis of their spoken responses. Scores reflect the AI's assessment of demonstrated competencies, not the person's inherent abilities.

    Scoring Dimensions

    • Communication Clarity: How clearly and coherently ideas are expressed
    • Technical Knowledge: Demonstrated understanding of relevant technical concepts
    • Problem-Solving: Approach to analyzing and solving presented challenges
    • Relevance: How well responses address the specific question asked
    • Depth: Level of detail and substantive content in responses

    Scores range from 0 to 100 and represent relative assessments. They should be interpreted as coaching feedback, not absolute measurements. Scores may vary across sessions due to question variation, AI model updates, and response differences.

    4. Bias Prevention

    We are committed to ensuring our AI systems do not discriminate against any individual or group based on protected characteristics including race, gender, age, disability, national origin, or other legally protected categories.

    Our Bias Prevention Measures

    • Regular testing of AI outputs across demographic groups to identify disparate impact
    • Prohibition of emotion recognition in workplace assessment contexts (EU AI Act compliance)
    • Scoring based on content and communication quality, not voice characteristics, accent, or appearance
    • Continuous monitoring of score distributions for statistical anomalies
    • Planned independent bias audit by a qualified third-party auditor (per NYC Local Law 144 requirements)

    If you believe you have experienced bias in AI-generated scores or feedback, please report it to support@vocaid.ai. We investigate all bias reports and take corrective action where warranted.

    5. حظر التعرف على المشاعر

    لا تستخدم Vocaid التعرف على المشاعر أو استنتاج المشاعر أو الحوسبة العاطفية في أي من أنظمة الذكاء الاصطناعي الخاصة بها. هذا الحظر هو مبدأ تصميمي أساسي، وليس مجرد إجراء امتثال.

    يحظر قانون الذكاء الاصطناعي للاتحاد الأوروبي (المادة 5(1)(و))، الساري اعتبارًا من 2 فبراير 2025، صراحةً استخدام أنظمة الذكاء الاصطناعي التي تستنتج المشاعر في مكان العمل والمؤسسات التعليمية، باستثناء الأغراض الطبية أو السلامة. تنتج ميزات التحليل السلوكي لدى Vocaid فقط مخرجات واقعية وقابلة للملاحظة:

    • نسبة ثبات التواصل البصري (تقاس باتجاه النظر بالنسبة للكاميرا)
    • مؤشرات الوضعية (وضع الرأس، محاذاة الكتفين المكتشفة من إطارات الفيديو)
    • مقاييس توقيت الاستجابة (المدة بين السؤال والإجابة)
    • بيانات خريطة حرارة تتبع النظر (اتجاه الانتباه البصري)

    تصف هذه المخرجات سلوكيات جسدية قابلة للملاحظة ولا تستنتج حالات عاطفية داخلية مثل الثقة أو التوتر أو الضغط أو الحماس أو أي خاصية عاطفية أخرى. يختلف تحليلنا السلوكي اختلافًا جوهريًا عن التعرف على المشاعر لأنه يقيس ما يفعله الشخص، وليس ما يشعر به.

    حظر صارم

    تحظر معايير الهندسة لدى Vocaid أي تسمية مخرجات نموذج تشير إلى استنتاج عاطفي. تتم مراجعة جميع مخرجات التحليل السلوكي لضمان أنها تصف فقط ملاحظات واقعية. يترتب على انتهاك حظر التعرف على المشاعر في قانون الذكاء الاصطناعي للاتحاد الأوروبي عقوبات تصل إلى 35 مليون يورو أو 7% من حجم الأعمال السنوي العالمي.

    6. الامتثال التنظيمي

    تعمل Vocaid وفقًا لأطر تنظيم الذكاء الاصطناعي في ولايات قضائية متعددة. فيما يلي الالتزامات المحددة وإجراءات الامتثال لدينا لكل لائحة معمول بها.

    امتثال قانون الذكاء الاصطناعي للاتحاد الأوروبي

    تُصنَّف Vocaid كنظام ذكاء اصطناعي عالي المخاطر بموجب الملحق الثالث، الفئة 4 (التوظيف وإدارة العمال والوصول إلى العمل الحر) من قانون الذكاء الاصطناعي للاتحاد الأوروبي (اللائحة (EU) 2024/1689). بصفتنا مزود أدوات تقييم التوظيف المدعومة بالذكاء الاصطناعي، نخضع لمتطلبات الفصل 3، القسم 2.

    • نظام إدارة المخاطر (المادة 9): نحتفظ بنظام موثق لإدارة المخاطر يحدد ويقيّم ويخفف المخاطر طوال دورة حياة نظام الذكاء الاصطناعي
    • حوكمة البيانات (المادة 10): تخضع مجموعات بيانات التدريب والتحقق والاختبار لممارسات حوكمة وإدارة البيانات التي تضمن الجودة والتمثيل واكتشاف التحيز
    • التوثيق الفني (المادة 11): نحتفظ بتوثيق فني شامل يصف أنظمة الذكاء الاصطناعي لدينا وقدراتها وقيودها والمنهجيات المستخدمة
    • حفظ السجلات (المادة 12): يتيح التسجيل التلقائي لعمليات نظام الذكاء الاصطناعي تتبع سلوك النظام
    • الشفافية (المادة 13): تفي صفحة شفافية الذكاء الاصطناعي هذه بالتزاماتنا في الشفافية من خلال توفير معلومات واضحة حول قدرات النظام وقيوده
    • الرقابة البشرية (المادة 14): جميع الدرجات المولدة بالذكاء الاصطناعي استشارية. يحتفظ صانعو القرار البشريون (مديرو التوظيف) بالسلطة على قرارات التوظيف. تم بناء إمكانيات التجاوز في سير عمل B2B.
    • الدقة والمتانة والأمن السيبراني (المادة 15): ننفذ تدابير لضمان مستويات مناسبة من الدقة والمتانة والأمن السيبراني
    • تقييم تأثير الحقوق الأساسية (المادة 27): نلتزم بإجراء تقييمات تأثير الحقوق الأساسية قبل النشر في أسواق الاتحاد الأوروبي

    تقييم المطابقة والتسجيل في قاعدة بيانات الاتحاد الأوروبي (المادة 60) قيد التنفيذ، مع هدف إتمام متوافق مع الموعد النهائي لالتزامات المخاطر العالية في 2 أغسطس 2026. قد تؤجل المفوضية هذا الموعد النهائي إلى 2 ديسمبر 2027 لبعض المزودين.

    Emotion Recognition

    حظر التعرف على المشاعر في أنظمة الذكاء الاصطناعي في مكان العمل (المادة 5(1)(و)) ساري المفعول منذ 2 فبراير 2025. لم تستخدم Vocaid أبدًا التعرف على المشاعر وتؤكد الامتثال الكامل لهذا الحظر.

    قانون كولورادو للذكاء الاصطناعي (SB 24-205)

    يحدد قانون كولورادو للذكاء الاصطناعي، الساري اعتبارًا من 1 فبراير 2026، التزامات لمطوري وناشري أنظمة الذكاء الاصطناعي عالية المخاطر. بصفتنا مطور أدوات تقييم التوظيف بالذكاء الاصطناعي، تقر Vocaid بالالتزامات التالية:

    • إفصاح المطور: نزود الناشرين (أصحاب العمل الذين يستخدمون منصتنا) بوثائق تصف الاستخدامات المقصودة والقيود المعروفة وتدابير تخفيف المخاطر لأنظمة الذكاء الاصطناعي لدينا
    • إدارة المخاطر: نحتفظ بممارسات معقولة لإدارة المخاطر لمعالجة المخاطر المعروفة أو المتوقعة بشكل معقول للتمييز الخوارزمي
    • إشعار المستهلك: يتم إخطار المستهلكين (المرشحين) عندما يتخذ نظام ذكاء اصطناعي عالي المخاطر قرارًا ذا أثر كبير بشأنهم أو يؤثر فيه بشكل جوهري
    • بيان الامتثال: سنوفر بيانًا على موقعنا الإلكتروني يلخص أنواع أنظمة الذكاء الاصطناعي عالية المخاطر التي نطورها وكيف ندير مخاطر التمييز الخوارزمي
    • التعاون مع المدعي العام: سنتعاون مع المدعي العام لولاية كولورادو في تقييم الامتثال وتقديم الوثائق عند الطلب

    يتحمل ناشرو Vocaid (أصحاب العمل) التزامات مستقلة بموجب قانون كولورادو للذكاء الاصطناعي، بما في ذلك إجراء تقييمات التأثير وتقديم إشعار المستهلك. ندعم الناشرين في الوفاء بالتزاماتهم من خلال وثائق منصتنا وأدوات الشفافية.

    قانون تكساس لحوكمة الذكاء الاصطناعي المسؤول

    يتطلب قانون تكساس لحوكمة الذكاء الاصطناعي المسؤول، الساري اعتبارًا من 1 يناير 2026، من الشركات التي تنشر أنظمة الذكاء الاصطناعي في تكساس الاحتفاظ بأطر حوكمة الذكاء الاصطناعي. تمتثل Vocaid للمتطلبات التالية:

    • إطار حوكمة الذكاء الاصطناعي: نحتفظ بتوثيق داخلي لممارسات حوكمة الذكاء الاصطناعي لدينا، متاح للمدعي العام في تكساس عند الطلب
    • الاستخدامات المحظورة: لا تشجع أنظمة الذكاء الاصطناعي لدينا على إيذاء النفس أو النشاط الإجرامي أو التمييز غير القانوني
    • الشفافية: نقدم إفصاحًا واضحًا عن استخدام الذكاء الاصطناعي في أدوات تقييم التوظيف لدينا
    • البيانات البيومترية: نوضح متى يتم جمع البيانات البيومترية لمعالجة الذكاء الاصطناعي ونحصل على الموافقة المناسبة بموجب قانون تكساس

    القانون المحلي 144 لمدينة نيويورك (AEDT)

    تشكل منصة المقابلات والتقييم بالذكاء الاصطناعي الخاصة بـ Vocaid أداة اتخاذ قرار وظيفي آلية (AEDT) بموجب القانون المحلي 144 لمدينة نيويورك. نمتثل للمتطلبات التالية:

    • تدقيق التحيز السنوي: نلتزم بإجراء تدقيق تحيز مستقل من قبل مدقق مؤهل من طرف ثالث، يحلل معدلات الاختيار حسب الجنس والعرق/الإثنية والفئات المتقاطعة
    • الملخص العام: سيتم نشر ملخص تدقيق التحيز علنًا على موقعنا الإلكتروني في غضون 6 أشهر من إتمام كل تدقيق
    • إشعار المرشح: نقدم للمرشحين إشعارًا قبل 10 أيام عمل على الأقل قبل استخدام AEDT في قرار التوظيف، كما هو مطبق في نظام إشعار المرشحين لدينا
    • الإفصاح عن البيانات: يمكن للمرشحين طلب معلومات حول البيانات المجمعة ومصدر هذه البيانات وسياسة الاحتفاظ بالبيانات لدى صاحب العمل

    المادة 20 من قانون LGPD البرازيلي

    بموجب المادة 20 من القانون العام لحماية البيانات في البرازيل (LGPD)، يحق لأصحاب البيانات طلب مراجعة بشرية للقرارات المتخذة فقط من خلال المعالجة الآلية التي تؤثر على مصالحهم، بما في ذلك التنميط. تضمن Vocaid:

    • يمكن للمرشحين الذين تم تقييمهم بواسطة أنظمة الذكاء الاصطناعي لدينا طلب مراجعة بشرية للقرارات الآلية من خلال مركز الخصوصية لدينا أو بالاتصال بمسؤول حماية البيانات (Encarregado)
    • نوفر الشفافية حول المعايير والإجراءات المستخدمة في اتخاذ القرار الآلي
    • تُقدم جميع درجات الذكاء الاصطناعي كتوصيات استشارية، وليست قرارات ملزمة أبدًا

    إصلاح LFPDPPP المكسيكي (2025)

    يقدم إصلاح 2025 للقانون الفيدرالي المكسيكي لحماية البيانات الشخصية التي يحتفظ بها القطاع الخاص التزامات جديدة لاتخاذ القرار الآلي. تمتثل Vocaid لما يلي:

    • شفافية اتخاذ القرار الآلي: نفصح عن استخدام تقنية اتخاذ القرار الآلي في تقييم المرشحين
    • حق التدخل البشري: يمكن لأصحاب البيانات طلب تدخل بشري في القرارات الآلية التي تنتج آثارًا قانونية أو تؤثر بشكل كبير مماثل عليهم
    • تقييم التأثير: نلتزم بإجراء تقييمات تأثير للمعالجة الآلية للبيانات الشخصية
    • الموافقة المعززة: نحصل على موافقة محددة ومستنيرة لمعالجة البيانات الشخصية من خلال اتخاذ القرار الآلي

    التعميم 001/2025 الصادر عن SIC الكولومبية

    أصدرت هيئة الرقابة على الصناعة والتجارة الكولومبية (SIC) التعميم 001/2025 الذي يتناول متطلبات معالجة البيانات البيومترية. فيما يتعلق بعمليات Vocaid في كولومبيا:

    • تناسب البيانات البيومترية: نضمن أن أي جمع للبيانات البيومترية يتناسب مع الغرض المعلن ولا يتجاوز ما هو ضروري بشكل صارم
    • تقييد الغرض: يتم جمع البيانات البيومترية فقط للتحقق من المقابلة وملاحظات التدريب على التواصل، وليس للمراقبة أو الرصد المستمر

    7. إطار حوكمة الذكاء الاصطناعي

    تحتفظ Vocaid بإطار شامل لحوكمة الذكاء الاصطناعي يتناول التطوير المسؤول والنشر والمراقبة لأنظمة الذكاء الاصطناعي لدينا في جميع الولايات القضائية التي نعمل فيها.

    ممارسات الحوكمة لدينا

    • إدارة المخاطر: التحديد المنهجي والتقييم والتخفيف من المخاطر المرتبطة بأنظمة الذكاء الاصطناعي لدينا، بما في ذلك مخاطر التحيز والتمييز وعدم الدقة
    • اختبار ومراقبة التحيز: اختبار منتظم لمخرجات الذكاء الاصطناعي عبر المجموعات الديموغرافية لتحديد ومعالجة التأثير المتباين أو أنماط التحيز غير العادل
    • المراقبة المستمرة: مراقبة مستمرة لأنظمة الذكاء الاصطناعي المنشورة لتدهور الأداء والانحراف والتحيز الناشئ
    • إصدار النماذج: التحكم في الإصدارات وتوثيق جميع تحديثات نماذج الذكاء الاصطناعي، مع تقييم التأثير قبل نشر التغييرات المهمة
    • الإبلاغ عن الحوادث: عمليات داخلية للإبلاغ والتحقيق ومعالجة الحوادث المتعلقة بالذكاء الاصطناعي، بما في ذلك شكاوى التحيز ومشكلات الدقة وأعطال النظام
    • إشراك أصحاب المصلحة: مشاركة منتظمة مع أصحاب المصلحة المتأثرين بما في ذلك المرشحين وأصحاب العمل والجهات التنظيمية ومنظمات المجتمع المدني

    تم تصميم إطار حوكمة الذكاء الاصطناعي لدينا للتطور مع المشهد التنظيمي. نراجع ونحدث ممارساتنا بانتظام لتتوافق مع المتطلبات الجديدة بموجب قانون الذكاء الاصطناعي للاتحاد الأوروبي وقانون كولورادو للذكاء الاصطناعي وقانون تكساس لحوكمة الذكاء الاصطناعي المسؤول وغيرها من لوائح الذكاء الاصطناعي الناشئة.

    8. Candidate AI Rights

    Vocaid recognizes the following rights for all individuals who interact with our AI systems:

    1

    Right to Know

    You have the right to know that AI is being used in your interview process and how it affects your assessment.

    2

    Right to Consent

    You have the right to provide informed consent before biometric data (voice patterns, facial geometry) is processed.

    3

    Right to Opt Out

    You have the right to opt out of video recording and behavioral analysis and use audio-only mode without penalty.

    4

    Right to Human Review

    You have the right to request human review of any AI-generated score or assessment.

    5

    Right to Appeal

    You have the right to contest AI-generated assessments and provide additional context.

    6

    Right to Explanation

    You have the right to receive a meaningful explanation of how your scores were generated.

    7

    Right to Data Access

    You have the right to access all data collected about you and all AI-generated outputs.

    8

    Right to Deletion

    You have the right to request permanent deletion of your interview data, recordings, and AI outputs.

    9

    Right to Non-Discrimination

    You have the right to fair treatment regardless of your race, gender, age, disability, accent, or other personal characteristics.

    10

    Right to Accommodations

    You have the right to request reasonable accommodations for disabilities that may affect AI assessment accuracy.

    6. EU AI Act Compliance (Annex IV)

    In accordance with the European Union AI Act (Regulation 2024/1689), Vocaid provides the following technical documentation for our AI systems classified under the Act. Our systems are designed to comply with transparency obligations for AI systems that interact with natural persons.

    System Information & Intended Purpose

    • Provider: Vocaid, Inc.
    • System Name: Vocaid AI Interview Platform
    • Version: Production (continuously updated)
    • Intended Purpose: AI-powered interview practice, resume scoring, and behavioral communication coaching
    • Intended Users: Job seekers (B2C) and hiring organizations (B2B)
    • EU Representative: Contact support@vocaid.ai for EU representative details
    • Risk Classification: Limited Risk (transparency obligations apply under Article 50)

    Training Data & Model Information

    • Vocaid uses third-party foundation models (Azure OpenAI GPT-4o) — we do not train custom models on user data
    • Resume scoring uses keyword and semantic matching algorithms, not machine learning classifiers
    • Behavioral analysis uses computer vision algorithms for face detection and gaze estimation, not facial recognition
    • No biometric identification or categorization is performed
    • Emotion recognition is explicitly prohibited in our systems (EU AI Act Article 5(1)(f) compliance)

    Risk Management & Mitigation

    Vocaid implements the following measures to mitigate risks associated with AI-assisted assessment:

    • Human oversight: All AI-generated scores are advisory — hiring decisions are always made by humans
    • Bias monitoring: Regular statistical analysis of score distributions across demographic groups
    • Transparency: Full disclosure of AI involvement before any assessment begins
    • Data minimization: Only data necessary for the specific assessment purpose is collected
    • User control: Users can opt out of video/behavioral analysis at any time without penalty
    • Logging: All AI decisions are logged for auditability per Article 12 requirements
    • Incident reporting: Processes in place for reporting serious incidents to relevant authorities

    For the complete technical documentation file or to submit questions regarding EU AI Act compliance, contact support@vocaid.ai. We are committed to full compliance with the Act's requirements as they enter into force.

    7. NYC Local Law 144 Compliance

    New York City Local Law 144 (2021) requires employers and employment agencies that use automated employment decision tools (AEDTs) to conduct annual independent bias audits and provide notice to candidates. Vocaid is committed to compliance with LL144 requirements.

    Applicability & Scope

    • Vocaid's AI interview scoring system qualifies as an AEDT when used by employers to substantially assist or replace discretionary decision-making in hiring
    • LL144 applies to candidates for employment opportunities in New York City
    • For B2C users (personal practice), the tool is advisory only and does not constitute an AEDT
    • For B2B employers using Vocaid to screen candidates, LL144 requirements apply

    Independent Bias Audit

    Vocaid will commission an independent bias audit before deploying our AI scoring for B2B hiring decisions in NYC. The audit will evaluate:

    • Impact ratio: Scoring rates for each race/ethnicity category compared to the most selected category
    • Impact ratio: Scoring rates for each sex category compared to the most selected category
    • Median scores: Comparison of median AI-generated scores across demographic categories
    • Selection rates: Analysis of pass/fail rates across protected categories at various score thresholds
    • Intersectional analysis: Combined race/ethnicity and sex impact ratios where data is sufficient

    Candidate Notice

    In compliance with LL144, Vocaid provides the following notice to candidates evaluated for NYC employment opportunities: An automated employment decision tool (AEDT) will be used in connection with the assessment of your job application. The AEDT evaluates your interview responses for communication clarity, technical knowledge, problem-solving ability, and relevance. You may request an alternative selection process or accommodation by contacting the employer directly or by emailing support@vocaid.ai.

    The bias audit summary will be published on this page once completed. Vocaid retains bias audit results for at least four years as required by law. For questions about LL144 compliance, contact support@vocaid.ai.

    8. Third-Party AI Services

    Vocaid uses the following third-party AI services. We maintain Data Processing Agreements with each provider to ensure your data is handled responsibly.

    • Azure OpenAI Service (Microsoft) — Powers interview conversation, question generation, and performance scoring↗
    • Deepgram — Real-time speech-to-text transcription↗
    • Azure Face API (Microsoft) — Face detection and liveness verification (not facial recognition)↗

    9. Contact Us

    For questions about our AI practices, to exercise your rights, or to report a concern:

    Email: support@vocaid.ai

    We take all AI-related inquiries seriously and aim to respond within 15 business days.