اخلاقیات در تکنولوژی تشخیص چهره زیر سوال رفت!
Artificial intelligence
طراح اینفوگرافی: فاطمه قرقانیان

اخلاقیات در تکنولوژی تشخیص چهره زیر سوال رفت!

مدت‌ها است که تحقیقات گسترده‌ای در زمینه سرعت بالای فناوری تشخیص چهره با استفاده از #هوش_مصنوعی ادامه دارد. این تحقیقات بر اساس داده‌های حاصل از دوربین‌های امنیتی و ویژگی Facetime iOS شرکت اپل در حال پیگیری است.

اما درمورد نرم‌افزار تشخیص چهره پرسش‌های اخلاقی زیادی مطرح شده و محققان هوش مصنوعی به برنامه‌های خود از لحاظ اخلاقی با تردید نگاه می‌کنند.

نتیجه منتشر شده از یک نظرسنجی در نیچر نشان می‌دهد که بیشتر محققان، استفاده از فناوری #تشخیص_چهره در گروه‌ها و جمعیت‌های آسیب‌پذیر را حتی با رضایت آگاهانه افراد، غیراخلاقی می‌دانند. 780 محقق در این نظرسنجی شرکت کرده‌اند که 71 درصد آنها تشخیص چهره گروه‌های آسیب‌پذیر را غیراخلاقی پنداشته‌اند. از طرفی 24 درصد دیگر از محققان این امر را اخلاقی دانسته‌اند و تاکید کرده‌اند که تنها برخی از استفاده‌های کنونی آن غیراخلاقی است.

بررسی آنالیز چهره انسان اطلاعاتی درباره ویژگی‌های صورت و بدن در اختیار سایرین قرار می‌دهد همچنین با استفاده از آن می‌توان جنبه‌های هویتی وی را پیش‌بینی کرد. استفاده از یک وسیله به‌عنوان مصرف‌کننده مانند گوشی آیفون، دسترسی به لایه امنیتی بیشتری را نسبت به برنامه‌های کاربردی برای ردیابی و اجرای قانون امکان‌پذیر می‌کند.

از طرفی با استفاده از تجزیه‌وتحلیل عکس‌های موجود در رسانه‌های اجتماعی، پیشرفت زیادی در زمینه #فناوری_تشخیص_چهره به وجود آمده است.

در نظرسنجی انجام‌گرفته، جمعیت مسلمان اویغور در سین کیانگ چین به‌عنوان یکی از نمونه‌‌ها برای مطالعات غیراخلاقی تشخیص چهره معرفی شده‌اند. گفته شده که تعداد زیادی از این افراد درون اردوگاه‌ها زندانی هستند. این افراد به‌صورت آگاهانه و با رضایت در تحقیقات صورت‌گرفته شرکت کرده‌اند یا اختیاری وجود نداشته است؟

این پرسش برای محققان تردید بزرگی درباره غیراخلاقی بودن استفاده از تشخیص چهره در این گروه به وجود آورده است. اخیرا نگرانی‌های زیادی درباره ردیابی گروه‌های آسیب‌پذیر مانند اویغورها در چین توسط سیستم تشخیص چهره ایجاد شده است.

Arnika.ai
آرنیکا طرح
هوش و توسعه کسب و کار
لینک کوتاه 
https://mag.arnika.ai/?p=2156
عضویت در خبرنامه