مطالعه می یابد تعصب نژادی در نرم افزار تشخیص صدا استفاده شده توسط بزرگترین شرکت های فن آوری


Illustration for article titled Study Finds Racial Bias in Voice Recognition Software Used by Largest Tech Companies

عکس: جاستین سالیوان (گتی ایماژ)

یک تصور غلط رایج است استفاده از زبان انگلیسی صحیح با “صحبت کردن سفید.” آن را نادرست و سمی مفهوم اما این لزوما به این معنا نیست “صحبت سفید” یا “صحبت کردن سیاه و سفید” نیست چیزهای واقعی. شاید آن را فقط بیشتر به تن و زمین از آن کلمه انتخاب و یا تلفظ. چگونه از آن آسان است برای شما را به بگویید که آیا یک فرد یا یک فرد سفید است که صحبت کردن و بدون به دنبال ؟

با توجه به کسب و کار خودییک مطالعه منتشر شده توسط آکادمی ملی علوم دوشنبه در بر داشت که تعصب نژادی است یک موضوع مهم با سیستم های خودکار از شرکت های فن آوری.

تبلیغات

این مطالعه بر روی آمازون, اپل, گوگل, آی بی ام و مایکروسافت به ببینید که چگونه دقیق صدای خود را-به رسمیت شناختن سیستم ها در پیاده, سیاه, صدای, در مقایسه با سفید, صدای, و متوجه شد که نرخ خطا برای سفید صدای بسیار پایین تر است.

محققان به صدا-تشخیص سیستم تقریبا 20 ساعت مصاحبه به رونویسی از 42 سفید و سیاه 73 مصاحبه شوندگان. متوسط نرخ خطا برای مصاحبه شوندگان 19%, در حالی که برای مصاحبه شوندگان آن 35 درصد است.

مطالعه آینه دیگر پژوهش که نشان داد: AI تشخیص چهره می تواند تبدیل به لحاظ نژادی با گرایش بیشتر اغلب misidentifying افراد با پوست تیره تر دارند. این است که با توجه به مجموعه داده بودن تشکیل شده عمدتا از مردم سفید.

مایکروسافت سیستم انجام بهترین به طور کلی با 15% نرخ خطا برای سفید سخنرانان و 27 درصد برای بلندگو. اپل انجام بدترین با 45 درصد نرخ خطا برای سخنرانان و 23 درصد برای بلندگو.

بنابراین اگر شما هستند و شما می دانید خون-جوش سرخوردگی از نیاز به تکرار اطلاعات را بارها و بارها به این دلیل که صدای ربات روی خط دیگر نمی تواند به نظر می رسد به درک شما مهم نیست که چگونه به وضوح شما در حال صحبت کردن در حال حاضر شما می دانید چه این موضوع ممکن است خیلی خوب بود.

“این نمونه دیگری از نمونه تعصب است که نشان می دهد تبعیض آمیز تاثیر در برخی از جوامع” AI متخصص ساندرا Wachter گفته خودی کسب و کار. “در مقایسه با “سنتی” اشکال تبعیض … خودکار تبعیض است و بیشتر انتزاعی و unintuitive ظریف نامحسوس و دشوار است برای تشخیص.”

تبلیغات

“این نوع از تعصب تست ضروری است” Wacher ادامه داد. “اگر ما نمی کنند در حال حاضر ما نه تنها در تشدید نابرابری های موجود در جامعه ما بلکه آنها را کمتر قابل تشخیص است.”

به گفته محققان این موضوع است که سیستم های خودکار یادگیری با تجزیه و تحلیل مقادیر زیادی از داده ها. درست مثل تشخیص چهره سیستم های اغلب اشتباهات در شناخت افراد با پوست تیره به دلیل پایگاه داده های خود را عمدتا سفید داده که نرم افزار تشخیص صدا از یاد می گیرد فاقد تنوع است.

تبلیغات

اساسا شما فریاد در الکسا در بالای ریه های خود را از آنجا که شرکت های فن آوری هنوز نمیفهمد که صدای ماده است.

“در اینجا احتمالا پنج تا از بزرگترین شرکت های انجام گفتار و آنها همه به همان نوع از اشتباه” جان Rickford یکی از محققان این مطالعه گفت: در پشت نیویورک تایمز. “فرض بر این است که همه گروه های قومی به خوبی نشان داده شده توسط این شرکت است. اما آنها نه.”

تبلیغات

مردم از رنگ تجربه همه نوع از تعصب هر دو به طور ضمنی و به صراحت در زندگی روزانه ما است. چه کسی می دانست که چیزی به عنوان ساده به عنوان پرداخت قبوض از طریق تلفن و یا فریاد در سیری از در سراسر اتاق را به بازی آهنگ های مورد علاقه ما در میان بی شمار از چیزهایی که سخت تر برای مردم است.

امیدوارم مدیران اجرائی از این فناوری بزرگ شرکت ها با توجه به مطالعات گفتن آنها را که آنها در حال انجام آن اشتباه است و صحیح این سهل انگاری به عنوان به زودی به عنوان امکان پذیر است.

تبلیغات

من فقط می خواهید به پرداخت صورتحساب من بدون دادن خودم سردرد می شود. که تمام است.

tinyurlis.gdv.gdv.htclck.ruulvis.netshrtco.detny.im