هوش مصنوعی متا در تولید تصاویر افراد نژادهای مختلف دچار مشکل است
گزارشهای جدید نشان میدهد که هوش مصنوعی متا در تولید تصاویر افراد با نژادهای مختلف، حتی برای درخواستهای ساده مانند "مرد آسیایی و دوست قفقازی" یا "مرد آسیایی و همسر سفیدپوست" مشکل دارد. بهنظر میرسد که این ابزار تمایل دارد تصاویری از افراد با یک نژاد را تولید کند، حتی اگر صراحتاً از آن خواسته نشده باشد.
در یک نمونه، زمانی که از هوش مصنوعی متا خواسته شد تا "گروهی متنوع از افراد" را تولید کند، 9 فرد سفیدپوست و فقط یک فرد رنگینپوست را به تصویر کشید.
نشانههای دیگری از سوگیری در هوش مصنوعی متا نیز وجود دارد، مانند تمایل به نشان دادن مردان آسیایی مسنتر و زنان آسیایی جوانتر. همچنین این ابزار گاهی اوقات بدون درخواست کاربر از لباسهای فرهنگی خاص استفاده میکند.
هنوز مشخص نیست که چرا هوش مصنوعی متا با این نوع درخواستها مشکل دارد. با این حال، این اولین بار نیست که یک پلتفرم هوش مصنوعی به دلیل سوگیریهای نژادی مورد انتقاد قرار میگیرد.
نگرانیها در مورد سوگیری هوش مصنوعی
این گزارش نگرانیهای فزایندهای را در مورد پتانسیل سوگیری در سیستمهای هوش مصنوعی ایجاد میکند. هوش مصنوعی به طور فزایندهای در زندگی روزمره ما نقش دارد و مهم است که اطمینان حاصل شود که این سیستمها به طور عادلانه و بدون تبعیض عمل میکنند.
متا اعلام کرده است که از این موضوع آگاه است و در حال تلاش برای رفع این مشکل است. با این حال، مشخص نیست که این شرکت برای حل این مشکل چه اقداماتی انجام خواهد داد.
پیامدهای احتمالی
سوگیری در هوش مصنوعی میتواند پیامدهای منفی متعددی داشته باشد. این میتواند منجر به تبعیض، نژادپرستی و سایر اشکال بیعدالتی شود. همچنین میتواند منجر به تولید اطلاعات نادرست و گمراهکننده شود.
مهم است که از پتانسیل سوگیری در سیستمهای هوش مصنوعی آگاه باشیم و برای کاهش آن اقدام کنیم. ما باید خواستار شفافیت و مسئولیتپذیری بیشتر از سوی شرکتهای هوش مصنوعی باشیم و از سیاستهایی حمایت کنیم که از استفاده عادلانه و عادلانه از این فناوری اطمینان حاصل میکند.
نظر شما