مشکلی به‌نام هوش‌مصنوعی جهت‌دار؛ مایکروسافت به‌دنبال راه‌حل آن است.

 
مجله علمی ایلیاد - مایکروسافت جدیدترین شرکت فناوری است که می‌خواهد بایاس الگوریتمی را از پیش رو بردارد؛ هوش‌مصنوعی که تعصبات یا دیدگاه‌های غیرمنصفانه‌ی جامعه را بازتاب می‌دهد. مایکروسافت در صدد ساخت ابزاری است که بتواند به افراد در استفاده از الگوریتم‌های هوش‌مصنوعی هشدار بدهد، چرا که شاید برخی از این الگوریتم‌ها با افراد براساس نژاد یا جنسیت آن‌ها برخورد کنند.

مایکروسافت خود را به عنوان شرکتی معرفی کرده که هوش‌مصنوعی را به منظور نزدیک کردن افراد به یکدیگر می‌سازد و این عالی است که این شرکت به جایگاه گوگل و فیسبوک پا می‌گذارد تا ابزاری برای تشخیص هوش‌مصنوعی نامناسب و آموزش دیده‌شده ایجاد کند.

اما الگوریتم جدید مایکروسافت برای یافتن الگوریتم‌های جهت‌دار فقط می‌تواند مشکلات موجود را یافته و بررسی کند. برای مثال، یعنی برنامه‌هایی که می‌توانند تعصب فزاینده‌ی پلیس را در پی داشته باشند، همچنان ساخته شده و مورد استفاده قرار خواهند گرفته‌اند. برای ساخت هوش‌مصنوعی که عملکرد منصفانه‌ای داشته و برای همه مفید باشد، باید جانب احتیاط و دقت را بیش از پیش رعایت کرد. یکی از راه‌های احتمالی که شرکت‌ها می‌توانند از آن برای پوششِ جهت و تعصب خود استفاده کنند، از طریق ممیزی شخص ثالث است؛ یعنی شرکت فناوری یک کارشناس خارجی را برای بررسی الگوریتم‌هایشان و جستجوی نشانه‌های تعصب در خودِ کد یا داده‌های وارد شده می‌گمارد.

ایده‌ی ممیزی هوش‌مصنوعی که در یکی از مقاله‌های MIT مطرح شد، در جاهای دیگر مورد توجه قرار گرفته است و برخی شرکت‌های هوش‌مصنوعی بازرس‌هایی را برای بررسی کدشان استخدام کرده‌اند. اما این مستلزم آن است که هوش‌مصنوعی تا آن‌جایی ساده باشد که فرد بتواند وارد آن شده و بتواند مشکل مورد نظر را شناسایی کند. در مورد الگوریتم‌های یادگیری پیچیده، شاید چنین امری مقدور نباشد.

پاسخ احتمالی دیگر، آموزش افرادی است که اقدام به ساخت هوش‌مصنوعی می‌کنند و بتوانند به شیوه‌ی بهتری تعصبات و عقاید خود را تشخیص دهند و آن‌ها را برای تفسیر توسط الگوریتم نگه دارند. این بدان معنا نیست که رمزگذاران قرار است خواهان ساخت ماشین‌های نژادپرست هستند. اما از آن‌جا که هرکس نوعی تعصب و پیش‌داوری دارد، دنیای فناوری از اینکه به افراد کمک کند تا دیدگاه‌های خود را به شیوه‌ی بهتری درک کنند، نفع می‌برد. این‌ها راه حل‌های عمده‌ای هستند که نیازمند تغییر نگرش در نحوه‌ی توسعه‌ی فناوری دارند، حتی در شرکت‌هایی که می‌خواهند این فیلترها را برای الگوریتم‌ها توسعه دهند، نشانه‌ی خوبی است که محققان و شرکت‌ها در حال توجه ویژه به این مسئله هستند.
 
نوشته: دن روبیتسکی
ترجمه: منصور نقی‌لو - مجله علمی ایلیاد
مجله ایلیاد رادر اینستاگرام دنبال کنید...مجله ایلیاد رادر تلگرام دنبال کنید...مجله ایلیاد رادر آپارات دنبال کنید...مطالب مشابه● دانشمندان گامی دیگر به اینترنت کوانتومی نزدیک‌تر شده‌اند● آیا Chat GPT به آموزش آسیب می‌رساند؟● چَت‌بات چیست و چه کاربردهایی دارد؟● گوگل دو سال دیگر نابود می‌شود● همه چیز در مورد اینترنت 5G● استفاده از هوش مصنوعی برای پیش‌بینی حرکات بازیکنان والیبال● کشف فیزیک جدید، توسط هوش‌مصنوعی● آیا حالت پنجم ماده کشف شده است؟● رمزارز افراد مُرده به چه کسی ارث می‌رسد؟● با معتادان به اینترنت و بازی‌های کامپیوتری چکار کنیم؟جدیدترین مطالب● آمار سرقت پس از قانون کاهش مجازات ● چطور لکه‌های مداد را از روی دیوار پاک کنیم؟● غلبه بر یکی از محدودیت‌های قانون اول ترمودینامیک● باکتری‌ها چگونه به مغز حمله می‌کنند؟● چطور ویتامین B12 مورد نیاز بدن‌مان را تامین کنیم؟● ورود اورانیوم به خاک چه ارتباطی با کودهای کشاورزی دارد؟● آیا گیاهان هم صدا دارند؟● چطور در خانه توت فرنگی بکاریم؟● شواهد جدید برای مدل استاندارد کیهان‌شناسی● چطور جلوی استفراغ شیرخوار را بگیریم؟● سیاره‌ی ناهید فعالیت‌های آتشفشانی دارد● چطور برای یک سفر کمپینگ آماده شویم؟● قدیمی‌ترین نشانه‌های برخورد شهاب‌سنگ‌ها با زمین● تصویری فوق‌العاده از یک برج پلاسمایی بر روی سطح خورشید● چگونه با عدم تعادل شیمیایی در مغز برخورد کنیم؟● کشف درخشان و داغِ جیمز وب● پنج فایده‌ی دارچین برای سلامتی● کدام حیوان بلندترین گردن را در قلمرو حیوانات داشته است؟● چطور رادیاتور خودرو را تخلیه و تعویض کنیم؟● کشف آنزیمی که هوا را به انرژی تبدیل می‌کند