سم آلتمن، مدیر اجرایی و یکی از بنیانگذاران OpenAI، در جلسه استماع کمیته فرعی قوه قضائیه سنا در واشنگتن، دی سی، ایالات متحده، در روز سه شنبه، 16 مه 2023، سخنرانی می کند. کنگره در حال بحث در مورد پتانسیل و مشکلات هوش مصنوعی با افزایش محصولاتی مانند ChatGPT است. سوالاتی در مورد آینده صنایع خلاق و توانایی تشخیص واقعیت از داستان.
اریک لی | بلومبرگ | گتی ایماژ
در هفته گذشته، سام آلتمن، مدیر عامل OpenAI، اتاقی پر از سیاستمداران در واشنگتن دی سی را در هنگام صرف شام مجذوب خود کرد، سپس برای حدود سه ساعت در مورد خطرات احتمالی هوش مصنوعی در جلسه استماع سنا شهادت داد.
پس از جلسه استماع، او با استفاده از اصطلاحاتی که در بین عموم مردم شناخته شده نیست، موضع خود را در مورد مقررات هوش مصنوعی خلاصه کرد.
آلتمن در توییتی نوشت: «ایمنی AGI واقعاً مهم است و مدلهای مرزی باید تنظیم شوند. ضبط نظارتی بد است و ما نباید با مدل های زیر آستانه دست به گریبان شویم.
در این مورد، «AGI» به «هوش عمومی مصنوعی» اشاره دارد. به عنوان یک مفهوم، به معنای هوش مصنوعی بسیار پیشرفته تر از آنچه در حال حاضر ممکن است استفاده می شود، هوش مصنوعی که می تواند بیشتر کارها را به خوبی یا بهتر از بسیاری از انسان ها انجام دهد، از جمله بهبود خود.
«مدلهای مرزی» راهی برای صحبت در مورد سیستمهای هوش مصنوعی است که گرانترین سیستمهای تولید هستند و بیشترین دادهها را تحلیل میکنند. مدلهای زبان بزرگ، مانند GPT-4 OpenAI، در مقایسه با مدلهای هوش مصنوعی کوچکتر که وظایف خاصی مانند شناسایی گربهها در عکسها را انجام میدهند، مدلهای مرزی هستند.
اکثر مردم موافق هستند که با افزایش سرعت توسعه، باید قوانینی بر هوش مصنوعی حاکم باشد.
My Thai، استاد علوم کامپیوتر، گفت: “یادگیری ماشینی، یادگیری عمیق، در 10 سال گذشته یا بیشتر، بسیار سریع توسعه یافته است. وقتی ChatGPT منتشر شد، به گونه ای توسعه یافت که ما هرگز تصورش را نمی کردیم، که می تواند به این سرعت پیش برود.” در دانشگاه فلوریدا ما از این می ترسیم که در حال رقابت با یک سیستم قدرتمندتر هستیم که به طور کامل آن را درک نکرده و پیش بینی نمی کنیم که چه کاری می تواند انجام دهد.
اما زبان پیرامون این بحث دو اردوگاه بزرگ را در میان دانشگاهیان، سیاستمداران و صنعت فناوری آشکار می کند. برخی بیشتر نگران چیزی هستند که می گویند “ایمنی هوش مصنوعی“اردوگاه دیگر نگران چیزی است که آنها می گویند”اخلاق هوش مصنوعی“
وقتی آلتمن با کنگره صحبت میکرد، بیشتر از اصطلاحات واژگانی اجتناب میکرد، اما توییت او نشان میداد که او بیشتر نگران ایمنی هوش مصنوعی است – موضعی که بسیاری از رهبران صنعت در شرکتهایی مانند OpenAI تحت مدیریت آلتمن، Google DeepMind و استارتآپهای با سرمایه خوب مشترک هستند. آنها نگران امکان ساخت یک AGI غیردوستانه با قدرت های غیرقابل تصور هستند. این اردوگاه معتقد است که ما نیاز به توجه فوری دولتها برای تنظیم توسعه و جلوگیری از پایان نابهنگام بشریت داریم – تلاشی مشابه منع گسترش سلاحهای هستهای.
مصطفی سلیمان بنیانگذار DeepMind و مدیر عامل فعلی Inflection AI گفت: “خوب است که می شنویم بسیاری از مردم شروع به جدی گرفتن در مورد ایمنی AGI کرده اند.” توییت کرد در جمعه. “ما باید بسیار جاه طلب باشیم. پروژه منهتن 0.4 درصد از تولید ناخالص داخلی ایالات متحده هزینه داشت. تصور کنید که یک برنامه معادل برای ایمنی امروز می تواند به چه چیزی برسد.”
اما بیشتر بحث در کنگره و کاخ سفید در مورد مقررات از طریق لنز اخلاق هوش مصنوعی است که بر آسیب های فعلی تمرکز دارد.
از این منظر، دولتها باید شفافیت را در مورد نحوه جمعآوری و استفاده سیستمهای هوش مصنوعی اعمال کنند، استفاده از آن را در مناطقی که مشمول قوانین ضد تبعیض هستند مانند مسکن یا اشتغال محدود کنند، و توضیح دهند که چگونه فناوری فعلی هوش مصنوعی ضعیف است. پیشنهاد منشور حقوق هوش مصنوعی کاخ سفید در اواخر سال گذشته شامل بسیاری از این نگرانی ها بود.
این اردو در جلسه استماع کنگره توسط IBM کریستینا مونتگومری، مدیر ارشد حریم خصوصی، که به قانونگذاران گفت معتقد است هر شرکتی که روی این فناوریها کار میکند باید یک نقطه تماس “اخلاق هوش مصنوعی” داشته باشد.
مونتگومری به کنگره گفت: «باید راهنمایی روشنی در مورد استفادههای نهایی هوش مصنوعی یا دستهبندیهای فعالیتهای پشتیبانیشده با هوش مصنوعی که ذاتاً پرخطر هستند، وجود داشته باشد.
چگونه زبان هوش مصنوعی را مانند یک خودی درک کنیم
همچنین ببینید: چگونه در مورد هوش مصنوعی مانند یک خودی صحبت کنیم
جای تعجب نیست که بحث در مورد هوش مصنوعی زبان خاص خود را توسعه داده است. به عنوان یک رشته آکادمیک فنی شروع شد.
بسیاری از نرمافزارهایی که امروزه مورد بحث قرار میگیرند، مبتنی بر مدلهای به اصطلاح زبان بزرگ (LLM) هستند که از واحدهای پردازش گرافیکی (GPU) برای پیشبینی جملات، تصاویر یا موسیقی احتمالی آماری استفاده میکنند، فرآیندی به نام «استنتاج». البته ابتدا باید مدلهای هوش مصنوعی در فرآیند تحلیل دادهها به نام «آموزش» ساخته شوند.
اما اصطلاحات دیگر، به ویژه از طرفداران ایمنی هوش مصنوعی، ماهیت فرهنگی بیشتری دارند و اغلب به ارجاعات مشترک و جوک ها اشاره دارند.
به عنوان مثال، افراد ایمنی هوش مصنوعی ممکن است بگویند که نگران تبدیل شدن به یک هوش مصنوعی هستند گیره کاغذ. این به یک آزمایش فکری اشاره دارد که توسط فیلسوف نیک بوستروم رایج شده است که معتقد است یک هوش مصنوعی فوق قدرتمند – یک “فوق هوش” – می تواند مأموریت داشته باشد تا بیشترین تعداد گیره کاغذ بسازد و منطقاً تصمیم به کشتن انسان بگیرد و از آن گیره های کاغذی بسازد. بقایای آنها
لوگوی OpenAI از این داستان الهام گرفته شده است و این شرکت حتی گیره هایی به شکل لوگوی خود ساخته است.
مفهوم دیگر در ایمنی هوش مصنوعی “برخاستن سخت” یا “برخاستن سریع“، این عبارتی است که نشان می دهد اگر کسی موفق به ساخت یک AGI شود، برای نجات بشریت خیلی دیر شده است.
گاهی اوقات، این ایده در قالب یک onomatopeia توصیف می شود – “فوم– به ویژه در میان منتقدان این مفهوم.
مثل این است که شما به سناریوی مضحک «فوم» برخاستن سخت اعتقاد دارید، که به نظر میرسد درک درستی از نحوه کار همه چیز ندارید.» توییت کرد رئیس هوش مصنوعی متا، Yann LeCun، که به ادعاهای AGI شک دارد، در بحث اخیر در رسانه های اجتماعی.
اخلاق هوش مصنوعی نیز زبان خاص خود را دارد.
هنگام توصیف محدودیتهای سیستمهای LLM کنونی، که نمیتوانند معنی را بفهمند، بلکه صرفاً زبانی شبیه به انسان تولید میکنند، افراد اخلاقیات هوش مصنوعی اغلب آنها را با “مقایسه میکنند.طوطی تصادفی“
این تشبیه که توسط امیلی بندر، تیمنیت گبرو، آنجلینا مکمیلان میجر و مارگارت میچل در مقالهای که در زمانی که برخی از نویسندگان در گوگل بودند ابداع شد، تأکید میکند که اگرچه مدلهای پیشرفته هوش مصنوعی میتوانند متنی به ظاهر واقعی تولید کنند، نرمافزار آن را درک نمیکند. مفاهیم پشت زبان – مثل یک طوطی.
وقتی این LLM ها حقایق نادرستی را در پاسخ ها ابداع می کنند، “توهم آور“
یکی از موضوعاتی که مونتگومری آیبیام در این جلسه مطرح کرد این بود:توضیح پذیریدر نتایج هوش مصنوعی. این بدان معناست که وقتی محققان و متخصصان نتوانند به اعداد و مسیر دقیق عملیاتی که مدلهای هوش مصنوعی بزرگتر برای استخراج خروجی خود استفاده میکنند اشاره کنند، این میتواند برخی سوگیریهای ذاتی را در LLM پنهان کند.
عدنان مسعود، معمار هوش مصنوعی در UST-Global میگوید: «شما باید درباره الگوریتم قابلیت توضیح داشته باشید. قبلاً، اگر به الگوریتمهای کلاسیک نگاه کنید، به شما میگوید: «چرا این تصمیم را میگیرم؟» اکنون با یک مدل بزرگتر، آنها در حال تبدیل شدن به این مدل عظیم هستند، آنها یک جعبه سیاه هستند.”
اصطلاح مهم دیگر این است که “نرده های محافظکه شامل نرمافزار و سیاستهایی است که شرکتهای فناوری بزرگ در حال حاضر بر روی مدلهای هوش مصنوعی ایجاد میکنند تا اطمینان حاصل کنند که دادهها درز نمیکنند یا محتوای مزاحم تولید نمیکنند، که اغلب نامیده میشود.خارج شدن از ریل“
همچنین میتواند به برنامههای خاصی اشاره کند که از نرمافزار هوش مصنوعی در برابر خارج شدن از موضوع محافظت میکنند، مانند محصول «NeMo Guardrails» انویدیا.
مونتگومری این هفته گفت: «هیئت اخلاقیات هوش مصنوعی ما نقش مهمی در نظارت بر فرآیندهای حاکمیت هوش مصنوعی داخلی ایفا میکند و حفاظهای معقولی ایجاد میکند تا اطمینان حاصل شود که فناوری را به شیوهای مسئولانه و ایمن به جهان معرفی میکنیم».
گاهی اوقات این اصطلاحات می توانند معانی متعددی داشته باشند، مانند مورد “رفتار اضطراری“
مقاله اخیر مایکروسافت ریسرچ به نام “جرقه های هوش عمومی مصنوعی” ادعا می کند که چندین “رفتارهای نوظهور” را در GPT-4 OpenAI شناسایی کرده است، مانند توانایی ترسیم حیوانات با استفاده از یک زبان برنامه نویسی برای نمودارها.
اما همچنین میتواند توضیح دهد که چه اتفاقی میافتد زمانی که تغییرات ساده در مقیاس بسیار بزرگ ایجاد میشود – مانند الگوهایی که پرندگان هنگام پرواز در بستهها ایجاد میکنند، یا، در مورد هوش مصنوعی، وقتی که ChatGPT و محصولات مشابه توسط میلیونها نفر استفاده میشوند، چه اتفاقی میافتد. به عنوان هرزنامه یا اطلاعات نادرست گسترده.