گوناگون

چالش‌های اخلاقی هوش مصنوعی

چالش‌های اخلاقی هوش مصنوعی

پارسینه: شرکت‌ها باید به اپلیکیشن‌های AI خود بیاموزند که توضیح‌های روشنی برای اقداماتی داشته باشند که به اجرا درمی‌آورند. با پیشرفت AI، نیاز خواهد بود که سیستم‌ها تا حدود زیادی مانند انسان‌ها آموزش و «تربیت» شوند.

وب سایت ایتنا: یکی از مسائلی که در زمان بحث درباره استفاده از هوش مصنوعی (AI) مطرح می­‌شود این است که چگونه می‌توان از اخلاقی بودن تصمیمات مبتنی بر AI اطمینان حاصل کرد. این دغدغه‌ای بجا است.
شرکت‌ها باید به اپلیکیشن‌های AI خود بیاموزند که توضیح‌های روشنی برای اقداماتی داشته باشند که به اجرا درمی‌آورند. با پیشرفت AI، نیاز خواهد بود که سیستم‌ها تا حدود زیادی مانند انسان‌ها آموزش و «تربیت» شوند.

به نقل از ZDNet، یکی از مسائلی که در زمان بحث درباره استفاده از هوش مصنوعی (AI) مطرح می­‌شود این است که چگونه می‌توان از اخلاقی بودن تصمیمات مبتنی بر AI اطمینان حاصل کرد. این دغدغه‌ای بجا است.

مایکل بیلتز، یکی از مسئولان شرکت مشاوره‌ای Accenture، می‌گوید: «با اینکه AI به هیچ عنوان انسان نیست، به هیچ عنوان هم نمی‌توانیم آن را مانند فقط یک برنامه لحاظ کنیم. در واقع، ایجاد AI‌ها باید بیش از انکه برنامه‌نویسی یک اپلیکیشن لحاظ شود شبیه بزرگ کردن یک کودک در نظر گرفته شود. این بدان خاطر است که AI تا نقطه‌ای رشد کرده است که می‌تواند درست به اندازه افرادی که از آن استفاده می‌کنند بر آن‌ها تاثیر بگذارد.»

کارکنان در شرکت‌ها آموزش می‌بینند که علاوه بر اجرای یک کار مشخص، مثلا، خط مشی‌های حول تنوع و حریم خصوصی را نیز درک کنند.
بیلتز می‌گوید: «AI‌ها باید تا حدود زیادی به همین صوت آموزش دیده و تربیت شوند، که علاوه بر اینکه کار مشخصی را انجام می‌دهند، به عنوان یک همکار مسئولیت شناس و نماینده شرکت نیز عمل کنند.»

به گفته بلیتز، سازمان‌ها می‌توانند به شیوه‌های مختلفی برای مسائل اخلاقی مرتبط با AI چاره‌جویی کنند. یکی از آن‌ها اسفاده تقویتی از آن‌ها است.
بلیتز می‌گوید: «اساسا، ماشین‌ها باید به شکلی طراحی شوند که با انسان‌ها کار کنند. AI باید انسان‌ها را محور قرار دهد، و نیروی کار را با اعمال قابلیت‌های ماشین‌ها "تقویت" نماید تا افراد بتوانند بر تحلیل ارزش بالاتر، تصمیم‌گیری و نوآوری تمرکز نمایند.»


همچنین، شرکت‌ها باید به اپلیکیشن‌های AI خود بیاموزند که توضیح‌های روشنی برای اقداماتی داشته باشند که به اجرا درمی‌آورند.

بلیتز گفت: «اگر یک ارائه وام مسکن که از AI استفاده می‌کند از دادن وام به یک خریدار مسکن بالقوه خودداری کند اگر او نتواند علت آن را توضیح دهد، تصمیماتش قابل اعتماد نخواهند بود. شیوه ارتباط برقرار کردن و همکاری انسان‌ها با یکدگیر از طریق بیان و توضیح است، از این رو باید به کارکنان مبتنی بر AI آموزش داده شود که به این طریق رفتار کنند.»

همچنین، یک آیین‌نامه شفاف و صریح اخلاقیات درباره اینکه AI چه کاری را می‌تواند و نمی‌تواند انجام دهد باید تدوین شود تا از مسئولانه رفتار کردن AI در قبال اقداماتش اطمینان حاصل شود.

ارسال نظر

نمای روز

داغ

صفحه خبر - وب گردی

آخرین اخبار