گوناگون

پدرخوانده هوش مصنوعی چرا از مخلوق خود می‌ترسد؟

پدرخوانده هوش مصنوعی چرا از مخلوق خود می‌ترسد؟

پارسینه: دکتر هینتون که به «پدرخوانده هوش مصنوعی» معروف است، پس از یک دهه همکاری با گوگل، از این شرکت خداحافظی کرد. او اکنون از آینده توسعه هوش مصنوعی به شدت هراسان است.

به گزارش «پارسینه» به نقل از نیویورک تایمز، جفری هینتون از پیشگامان هوش مصنوعی است. در سال ۲۰۱۲، دکتر هینتون و دو تن از دانشجویان فارغ التحصیلش در دانشگاه تورنتو فناوری‌ای ایجاد کردند که به پایه فکری سامانه‌های هوش مصنوعی تبدیل شد که بزرگترین شرکت‌های صنعت فناوری معتقدند کلیدی برای آینده آنهاست.

با این حال، روز دوشنبه، جفری هینتون رسماً به جمع رو به رشدی از منتقدان پیوست که می‌گویند این شرکت‌ها با رویکرد تهاجمی خود برای ایجاد محصولاتی مبتنی بر هوش مصنوعی مولد، فناوری‌ای که به چت‌بات‌های محبوبی مانند ChatGPT نیرو می‌دهد، به سوی خطر رقابت می‌کنند.

دکتر هینتون گفت که او شغل خود را در گوگل، جایی که بیش از یک دهه در آن کار کرده و به یکی از معتبرترین افراد در این زمینه تبدیل شده، رها کرده است و بنابراین می‌تواند آزادانه در مورد خطرات هوش مصنوعی صحبت کند. او گفت اکنون بخشی از وجودش از زندگی کاریش پشیمان است.

دکتر هینتون طی یک مصاحبه طولانی که هفته گذشته در اتاق غذاخوری خانه اش در تورنتو انجام شد، گفت: «من همان بهانه معمول را برای آرام کردن خودم دارم: اگر من این کار را نمی‌کردم، کس دیگریا انجام می‌داد.»

چرخش دکتر هینتون از پیشگامی هوش مصنوعی به پیشگویی درباره فاجعه پیش رو، لحظه‌ای قابل توجه برای صنعت فناوری در مهم‌ترین نقطه عطف آن در دهه‌های اخیر است. رهبران صنعت بر این باورند که سامانه‌های هوش مصنوعی جدید می‌توانند به اندازه معرفی مرورگر وب در اوایل دهه ۱۹۹۰ مهم باشند و می‌توانند به پیشرفت‌هایی در حوزه‌های مختلف از تحقیقات دارویی تا آموزش منجر شوند.

اما ترس و نگرانی بسیاری از آشنایان صنعت این است که آن‌ها چیزی خطرناک را در طبیعت رها می‌کنند. هوش مصنوعی مولد می‌تواند ابزاری برای تولید طلاعات نادرست باشد. به زودی، ممکن است به خطری برای مشاغل تبدیل شود. نگرانترین افراد دنیای فناوری پا را فراتر می‌گذارند و می‌گویند این فناوری می‌تواند خطری برای بشریت باشد.

دکتر هینتون گفت: «به سختی می‌توان تصور کرد که جلوی استفاده بازیگران بد برای کار‌های بد را بگیرید.»

پس از انتشار نسخه جدید «چت جی پی تی» توسط «اوپن‌ای آی» در سانفرانسیسکو در ماه مارس، بیش از ۱۰۰۰ رهبر فناوری و پژوهشگر با امضای نامه‌ای سرگشاده خواستار توقف دست کم شش ماهه توسعه سیستم‌های جدید شدند، زیرا فناوری‌های هوش مصنوعی خطرات عمیقی را برای جامعه و بشریت به همراه دارد.

چند روز بعد، ۱۹ نفر از رهبران فعلی و سابق «انجمن پیشرفت هوش مصنوعی»، یک انجمن دانشگاهی ۴۰ ساله، نامه‌ای منتشر کردند و در مورد خطرات هوش مصنوعی هشدار دادند. این گروه شامل اریک هورویتز، مدیر ارشد علمی مایکروسافت می‌شد که فناوری «اوپن‌ای آی» را در طیف وسیعی از محصولات خود، از جمله موتور جستجوی بینگ، به کار گرفته است.

دکتر هینتون که اغلب او را «پدرخوانده هوش مصنوعی» می‌نامند، هیچ یک از این نامه‌ها را امضا نکرده و گفته بود که تا زمانی که شغل خود را رها نکرده باشد نمی‌خواهد علناً از گوگل یا سایر شرکت‌ها انتقاد کند. او ماه گذشته به شرکت اطلاع داد که به دنبال استعفا است و روز پنجشنبه با ساندار پیچای، مدیر اجرایی شرکت مادر گوگل، آلفابت، تلفنی صحبت کرد. او از صحبت علنی درباره جزئیات گفتگوی خود با آقای پیچای خودداری کرد.

جف دین، دانشمند ارشد گوگل، در بیانیه‌ای گفت: «ما به رویکردی مسئولانه در زمینه هوش مصنوعی متعهدیم و به طور مستمر در حال یادگیری برای درک خطرات نوظهور و در عین حال به شکلی جسورانه دنبال نوآوری هستیم.»

دکتر هینتون، یک مهاجر ۷۵ ساله بریتانیایی است که عمری را در دانشگاه صرف کرده است و اعتقادات شخصی‌اش در مورد توسعه و استفاده از هوش مصنوعی حرفه او را پیش برده است. او در سال ۱۹۷۲ ایده‌ای به نام شبکه عصبی را پذیرفت. شبکه عصبی یک سیستم ریاضیاتی است که با تجزیه و تحلیل داده ها، مهارت‌ها را یاد می‌گیرد. در آن زمان، تعداد کمی از محققان به این ایده اعتقاد داشتند.

در دهه ۱۹۸۰، دکتر هینتون استاد علوم کامپیوتر در دانشگاه کارنگی ملون بود، اما این دانشگاه را به مقصد کانادا ترک کرد، زیرا تمایلی به دریافت بودجه پنتاگون نداشت. در آن زمان، بیشتر تحقیقات هوش مصنوعی در ایالات متحده توسط وزارت دفاع تامین مالی می‌شد. دکتر هینتون عمیقاً با استفاده از هوش مصنوعی در میدان جنگ مخالف است - چیزی که او آن را «روبات‌های سرباز» می‌نامد.

در سال ۲۰۱۲، دکتر هینتون و دو تن از شاگردانش در تورنتو، ایلیا سوتسکور و الکس کریشفسکی، یک شبکه عصبی ساختند که می‌توانست هزاران عکس را تجزیه و تحلیل کند و به خود بیاموزد که اشیاء معمولی مانند گل‌ها، سگ‌ها و ماشین‌ها را شناسایی کند.

گوگل ۴۴ میلیون دلار برای تصاحب شرکتی که توسط دکتر هینتون و دو شاگردش راه اندازی شده بود هزینه کرد و سیستم آن‌ها منجر به ایجاد فناوری‌های قدرتمندتر، از جمله چتبات‌های جدید مانند «چت جی پی تی» و «گوگل بارد» شد. آقای سوتسکورهم به عنوان دانشمند ارشد در «اوپن‌ای آی» انتخاب شد. در سال ۲۰۱۸، دکتر هینتون و دو همکار قدیمی اش جایزه تورینگ را که اغلب «جایزه نوبل رایانش» نامیده می‌شود، برای کارشان در شبکه‌های عصبی دریافت کردند.

تقریباً در همان زمان، گوگل، «اوپن‌ای آی» و سایر شرکت‌ها شروع به ساخت شبکه‌های عصبی کردند که از حجم عظیمی از نائت دیجیتال یاد می‌گرفتند. دکتر هینتون فکر می‌کرد که این روشی قدرتمند برای ماشین‌ها برای درک و تولید زبان است، اما نسبت به روشی که انسان‌ها با زبان کار می‌کنند پایین‌تر بود.

سپس، سال گذشته، زمانی که گوگل و اوپن‌ای آی سیستم‌هایی را با استفاده از مقادیر بسیار بیشتری از داده‌ها ساختند، دیدگاه او تغییر کرد. او هنوز معتقد بود که این سیستم‌ها از جهاتی از مغز انسان پایین‌تر هستند، اما فکر می‌کرد که از جهاتی هوش انسان را تحت الشعاع قرار می‌دهند. او گفت: «شاید آنچه در این سیستم‌ها می‌گذرد، در واقع بسیار بهتر از آنچه در مغز می‌گذرد باشد.»

او معتقد است، همانطور که شرکت‌ها سیستم‌های هوش مصنوعی خود را بهبود می‌بخشند، آن‌ها به طور فزاینده‌ای خطرناک می‌شوند. او درباره فناوری هوش مصنوعی گفت: «ببینید که پنج سال پیش چگونه بود و اکنون چگونه است. تفاوت را بگیرید و همین طور پیش بروید. این ترسناک است.»

او گفت تا سال گذشته، گوگل به عنوان یک «ناظر مناسب» برای این فناوری عمل می‌کرد و مراقب بود چیزی را منتشر نکند که ممکن است باعث آسیب شود. اما اکنون که مایکروسافت موتور جستجوی بینگ خود را با یک چتبات تقویت کرده است - که تجارت اصلی گوگل را به چالش می‌کشد - گوگل در حال رقابت برای به کارگیری همان نوع فناوری است. دکتر هینتون گفت که غول‌های فناوری در رقابتی گرفتار شده اند که توقف آن شاید غیرممکن باشد.

نگرانی فوری او این است که اینترنت مملو از عکس‌ها، فیلم‌ها و متن‌های نادرست شود و یک فرد معمولی «دیگر نمی‌تواند بفهمد چه چیزی درست است.»

او همچنین نگران است که فناوری‌های هوش مصنوعی به مرور زمان بازار کار را متحول کند. امروزه، چتبات‌های مانند چت جی پی تی مکمل کارکنان انسانی هستند، اما می‌توانند جایگزین مشاوران حقوقی، دستیاران شخصی، مترجمان و دیگرانی شوند که کار‌های عادی را انجام می‌دهند.

در ادامه، او نگران است که نسخه‌های آینده این فناوری تهدیدی برای بشریت باشند، زیرا آن‌ها اغلب مواقع رفتار‌های غیرمنتظره‌ای را از حجم عظیمی از داده‌هایی که تجزیه و تحلیل می‌کنند یاد می‌گیرند. او گفت که این موضوع به یک مشکل تبدیل می‌شود، زیرا افراد و شرکت‌ها به سیستم‌های هوش مصنوعی اجازه می‌دهند نه تنها کد کامپیوتری خودشان را تولید کنند، بلکه در واقع آن کد را خودشان اجرا کنند و او از روزی می‌ترسد که سلاح‌های خودمختار واقعی -آن روبات‌های قاتل- به واقعیت تبدیل شوند.

او گفت: «این ایده که این چیز‌ها واقعاً می‌توانند هوشمندتر از آدم‌ها باشند. چند نفر آن را باور داشتند، اما بیشتر مردم فکر می‌کردند که خیلی دور از ذهن است؛ و من فکر می‌کردم خیلی دور است. فکر می‌کردم ۳۰ تا ۵۰ سال یا حتی بیشتر فاصله داشته باشد. بدیهی است که دیگر چنین فکری نمی‌کنم.»

بسیاری دیگر از کارشناسان، از جمله بسیاری از دانشجویان و همکاران وی، می‌گویند این تهدید فرضی است. اما دکتر هینتون معتقد است که رقابت بین گوگل و مایکروسافت و دیگران به یک مسابقه جهانی تبدیل خواهد شد که بدون نوعی مقررات جهانی متوقف نخواهد شد.

البته او می‌گوید متوقف کردن توسعه هوش مصنوعی شاید غیرممکن باشد. او گفت برخلاف سلاح‌های هسته ای، هیچ راهی برای دانستن اینکه آیا شرکت‌ها یا کشور‌ها به طور مخفیانه روی این فناوری کار می‌کنند وجود ندارد. بهترین امید این است که دانشمندان برجسته جهان برای شیوه‌های کنترل فناوری با یکدیگر همکاری کنند. او گفت: «من فکر نمی‌کنم تا زمانی که درنیابند می‌توانند آن را کنترل کنند یا نه، نباید این فناوری را توسعه دهند.»

دکتر هینتون گفت که وقتی مردم از او می‌پرسیدند چگونه می‌تواند روی فناوری‌ای که بالقوه خطرناک است کار کند، از رابرت اوپنهایمر که تلاش‌های آمریکا برای ساخت بمب اتمی را رهبری می‌کرد، نقل قول می‌کند که «وقتی چیزی را می‌بینی که از نظر فنی شیرین است، برو و انجامش بده.»

او دیگر این را نمی‌گوید.

ارسال نظر

نمای روز

داغ

صفحه خبر - وب گردی

آخرین اخبار