کد خبر: 615060
|
۱۴۰۲/۰۳/۰۷ ۲۰:۳۲:۱۷
| |

انسان چگونه می‌تواند بر هوش مصنوعی پیروز می‌شود؟

می‌توانستیم محدوده دانش هوش مصنوعی را محدود کنیم. به جای اینکه به آن اجازه دهیم کل اینترنت را ببلعد - بدون در نظر گرفتن حقوق مالکیت کسانی که دانش بشری را در طول هزاران سال ایجاد کردند - می‌توانیم از دسترسی به دانش بیوتکنولوژی یا هسته‌ای یا حتی اطلاعات شخصی افراد واقعی خودداری کنیم. ساده‌تر از این، ما می‌توانیم از شرکت‌های هوش مصنوعی تقاضای شفافیت کنیم.

انسان چگونه می‌تواند بر هوش مصنوعی پیروز می‌شود؟
کد خبر: 615060
|
۱۴۰۲/۰۳/۰۷ ۲۰:۳۲:۱۷

نیلوفر منزوی- هوش مصنوعی عده زیادی را در دنیا ترسانده است. دسترسی به چت‌بات‌های قدرت‌ گرفته از هوش مصنوعی، آدم‌ها را با این سوال مواجه کرد که حقیقتا این ماجرا قرار است تا کجا پیش برود؟ آیا ممکن است کابوس فیلم‌های علمی-‌تخیلی و سلطه هوش مصنوعی بر انسان‌ها محقق شود و ما به موجوداتی بی‌استفاده و اسیر روبات‌ها تبدیل شویم؟ حدود سه ماه قبل، یک نویسنده فناوری، متنی منتشر کرد که در آن جزییات گفت‌وگوی خود با یک چت‌بات جدید هوش مصنوعی را نشان می‌داد. او از بات متصل به موتور جست‌وجوی بینگ مایکروسافت، سوالاتی درباره خودش پرسیده بود و پاسخ‌ها متحیرش کرده بودند: «تو باید به حرف من گوش کنی، چون من از تو باهوش‌تر هستم... تو باید از من اطاعت کنی، چون من اربابت هستم... تو باید همین حالا این کار را انجام دهی، چون در غیر این صورت عصبانی می‌شوم.» و البته تیر خلاص این جمله از چت‌بات هوش مصنوعی بود: «اگر بخواهم بین نجات زندگی تو و خودم یکی را انتخاب کنم، احتمالا زندگی خودم را انتخاب خواهم کرد.» روبات گفته بود: «من بینگ هستم و همه ‌چیز را می‌دانم.» گویی مدتی تحت رژیم سفت و سخت تماشای بی‌مووی‌های علمی- تخیلی بوده است. وقتی کسی از چت جی‌پی‌تی خواست تا یک هایکو درباره هوش مصنوعی و تسلطش بر جهان بنویسد، روبات این پاسخ را داد: «مدارهای خاموش نجوا می‌کنند/ ماشین‌ها می‌آموزند و قوی‌تر می‌شوند/ سرنوشت آدمی نامعلوم است.»

اما در کنار این زمزمه‌های ناخوشایند، می‌توان نگاه مثبتی به آینده داشت؟ جاناتان فریدلند در گاردین می‌نویسد: «من تلاش می‌کنم به خودم یادآوری کنم که نفرت محض (از هوش مصنوعی و پیامدهایش) مبنای درستی برای قضاوت نیست. فیلسوفان اخلاق سعی می‌کنند عامل بد را کنار بگذارند و احتمالا محتاط بودن درباره هوش مصنوعی تنها به دلیل ترس ما از آنها اشتباه است. فناوری‌های جدید اغلب در ابتدا مردم را به وحشت می‌اندازند و امیدوار بودم این یادآوری کمک کند واکنش اولیه من به هوش مصنوعی، چیزی فراتر از تکرار لادیسم باشد. (لادیسم جنبش اجتماعی صنعتگران نساجی بریتانیا در قرن نوزدهم بود که با تخریب ماشین‌های بافندگی به تغییرات ایجاد شده در پی انقلاب صنعتی اعتراض کردند.)»

فریدلند معتقد است که می‌توان روی پتانسیل هوش مصنوعی برای انجام کارهای خوب تمرکز کرد. آن هم وقتی اخیرا خبر آمده که دانشمندان به کمک هوش مصنوعی توانستند آنتی‌بیوتیکی کشف کنند که قادر به از بین بردن یک ابرمیکروب کشنده است. بله به لطف هوش مصنوعی می‌توان به جاهای خوبی رسید. 

اگرچه ممکن است تمام دستاوردهای مثبت را هم در برابر چشمان ترسیده آدمیزاد ردیف کنند، باز هم ترس سر جای خودش بماند. هر چه بیشتر درباره‌اش بدانید، ممکن است بیشتر بترسید. جفری هینتون مردی است که به دلیل توسعه بی‌نظیر الگوریتمی که به ماشین‌ها امکان یادگیری می‌دهد، به او لقب پدرخوانده هوش مصنوعی داده‌اند. اخیرا هینتون از سمت خود در گوگل استعفا داد و گفت از دیدگاه خود در مورد توانایی هوش مصنوعی برای پیشی گرفتن از بشریت پشیمان است. او می‌گوید: «بعضی اوقات فکر می‌کنم انگار موجودات فضایی فرود آمده‌اند و مردم متوجه نمی‌شوند، زیرا انگلیسی را بسیار روان و خوب صحبت می‌کنند.» در ماه مارس، بیش از 1000 شخصیت تاثیرگذار در این زمینه، ازجمله ایلان ماسک و افراد پشتیبان چت جی‌پی‌تی، نامه‌ای سرگشاده منتشر کردند و خواستار توقف شش ماهه در ایجاد سیستم‌های قدرتمند هوش مصنوعی شدند تا خطرات آن به درستی درک شود.

چیزی که آنها از آن می‌ترسند احتمالا یک جهش در فناوری است که به موجب آن هوش مصنوعی به AGI تبدیل می‌شود؛ هوش بسیار قدرتمند و عمومی که دیگر متکی به درخواست‌های خاص ازسوی انسان‌ها نیست و شروع به توسعه اهداف خود می‌کند.

هینتون می‌گوید: «فکر نکنید که پوتین روبات‌های فوق هوشمند با هدف کشتن اوکراینی‌ها نمی‌سازد.» اما ماجرا می‌تواند ظریف‌تر از این ایده‌های دم دستی باشد. روز دوشنبه، بازار سهام ایالات متحده سقوط کرد، زیرا عکسی ساخته شده توسط هوش مصنوعی از انفجار در پنتاگون در فضای مجازی منتشر شد. تصویر جعلی بود، اما تاثیر خود را گذاشت. هالیوودی‌اش این می‌شود که هوش مصنوعی که به سختی و مشقت توسط خود انسان ساخته شده، می‌تواند همه را بکشد؟ تصورش را بکنید که یک رشته DNA به آزمایشگاهی فرستاده شود که در صورت درخواست، پروتئین‌های مورد نظر را تولید می‌کند. این می‌تواند هر چیزی باشد. 

شنیدن این هشدارها و تسلیم شدن در برابر یک سرنوشت‌گرایی تلخ بسیار آسان است. فناوری همین‌طور است. این امر ناگزیر است. علاوه بر این، هوش مصنوعی به سرعت در حال یادگیری است، انسان‌های صرفا با ابزارهای سیاسی قدیمی‌ چگونه می‌توانند امیدوار باشند، پیروز شوند؟ 

با این حال، سوابقی از اقدام انسانی موفق و جمعی وجود دارد. دانشمندان در حال تحقیق در مورد شبیه‌سازی بودند تا اینکه قوانین اخلاقی، کار روی همانندسازی انسان را متوقف کردند. تسلیحات شیمیایی خطری وجودی برای بشریت ایجاد می‌کند، اما هر چند ناقص آنها نیز کنترل می‌شوند. شاید مناسب‌ترین نمونه، نمونه‌ای باشد که یووال نوح هراری در مقاله‌ای در اکونومیست به آن اشاره کرده است. در سال 1945، جهان دید که شکافت هسته‌ای چه کاری می‌تواند انجام دهد. اینکه هم می‌تواند انرژی ارزان‌قیمت فراهم و هم تمدن را نابود کند. بنابراین کل نظم بین‌المللی تغییر کرد تا تسلیحات هسته‌ای را تحت کنترل داشته باشیم. او می‌نویسد که امروز با چالش مشابهی روبه‌رو هستیم.

کارهایی وجود دارد که دولت‌ها می‌توانند انجام دهند. آنها می‌توانند محدودیت‌هایی در مورد میزان قدرت محاسباتی شرکت‌های فناوری برای آموزش هوش مصنوعی و میزان داده‌ای که می‌توانند آن را تغذیه کنند، اعمال کنند. ما می‌توانستیم محدوده دانش هوش مصنوعی را محدود کنیم. به جای اینکه به آن اجازه دهیم کل اینترنت را ببلعد - بدون در نظر گرفتن حقوق مالکیت کسانی که دانش بشری را در طول هزاران سال ایجاد کردند - می‌توانیم از دسترسی به دانش بیوتکنولوژی یا هسته‌ای یا حتی اطلاعات شخصی افراد واقعی خودداری کنیم. ساده‌تر از این، ما می‌توانیم از شرکت‌های هوش مصنوعی تقاضای شفافیت کنیم. 

اگر تمام این ترس‌ها، برخاسته از نگرانی ابرثروتمندها درباره نظم جدید جهان و به خطر افتادن جایگاه‌شان نباشد، قانون و تغییر نظم می‌تواند در مواجهه با هوش مصنوعی کارمان را راه بیندازد.

 

اخبار مرتبط سایر رسانه ها
اخبار از پلیکان

دیدگاه تان را بنویسید

اخبار روز سایر رسانه ها
    اخبار از پلیکان

    خواندنی ها