گیره کاغذ، طوطی و ایمنی در مقابل اخلاق

سم آلتمن، مدیر اجرایی و یکی از بنیانگذاران OpenAI، در جلسه استماع کمیته فرعی قوه قضائیه سنا در واشنگتن، دی سی، ایالات متحده، در روز سه شنبه، 16 مه 2023، سخنرانی می کند. کنگره در حال بحث در مورد پتانسیل و مشکلات هوش مصنوعی با افزایش محصولاتی مانند ChatGPT است. سوالاتی در مورد آینده صنایع خلاق و توانایی تشخیص واقعیت از داستان.

اریک لی | بلومبرگ | گتی ایماژ

در هفته گذشته، سام آلتمن، مدیر عامل OpenAI، اتاقی پر از سیاستمداران در واشنگتن دی سی را در هنگام صرف شام مجذوب خود کرد، سپس برای حدود سه ساعت در مورد خطرات احتمالی هوش مصنوعی در جلسه استماع سنا شهادت داد.

پس از جلسه استماع، او با استفاده از اصطلاحاتی که در بین عموم مردم شناخته شده نیست، موضع خود را در مورد مقررات هوش مصنوعی خلاصه کرد.

آلتمن در توییتی نوشت: «ایمنی AGI واقعاً مهم است و مدل‌های مرزی باید تنظیم شوند. ضبط نظارتی بد است و ما نباید با مدل های زیر آستانه دست به گریبان شویم.

در این مورد، «AGI» به «هوش عمومی مصنوعی» اشاره دارد. به عنوان یک مفهوم، به معنای هوش مصنوعی بسیار پیشرفته تر از آنچه در حال حاضر ممکن است استفاده می شود، هوش مصنوعی که می تواند بیشتر کارها را به خوبی یا بهتر از بسیاری از انسان ها انجام دهد، از جمله بهبود خود.

«مدل‌های مرزی» راهی برای صحبت در مورد سیستم‌های هوش مصنوعی است که گران‌ترین سیستم‌های تولید هستند و بیشترین داده‌ها را تحلیل می‌کنند. مدل‌های زبان بزرگ، مانند GPT-4 OpenAI، در مقایسه با مدل‌های هوش مصنوعی کوچک‌تر که وظایف خاصی مانند شناسایی گربه‌ها در عکس‌ها را انجام می‌دهند، مدل‌های مرزی هستند.

اکثر مردم موافق هستند که با افزایش سرعت توسعه، باید قوانینی بر هوش مصنوعی حاکم باشد.

My Thai، استاد علوم کامپیوتر، گفت: “یادگیری ماشینی، یادگیری عمیق، در 10 سال گذشته یا بیشتر، بسیار سریع توسعه یافته است. وقتی ChatGPT منتشر شد، به گونه ای توسعه یافت که ما هرگز تصورش را نمی کردیم، که می تواند به این سرعت پیش برود.” در دانشگاه فلوریدا ما از این می ترسیم که در حال رقابت با یک سیستم قدرتمندتر هستیم که به طور کامل آن را درک نکرده و پیش بینی نمی کنیم که چه کاری می تواند انجام دهد.

اما زبان پیرامون این بحث دو اردوگاه بزرگ را در میان دانشگاهیان، سیاستمداران و صنعت فناوری آشکار می کند. برخی بیشتر نگران چیزی هستند که می گویند “ایمنی هوش مصنوعی“اردوگاه دیگر نگران چیزی است که آنها می گویند”اخلاق هوش مصنوعی

وقتی آلتمن با کنگره صحبت می‌کرد، بیشتر از اصطلاحات واژگانی اجتناب می‌کرد، اما توییت او نشان می‌داد که او بیشتر نگران ایمنی هوش مصنوعی است – موضعی که بسیاری از رهبران صنعت در شرکت‌هایی مانند OpenAI تحت مدیریت آلتمن، Google DeepMind و استارت‌آپ‌های با سرمایه خوب مشترک هستند. آنها نگران امکان ساخت یک AGI غیردوستانه با قدرت های غیرقابل تصور هستند. این اردوگاه معتقد است که ما نیاز به توجه فوری دولت‌ها برای تنظیم توسعه و جلوگیری از پایان نابهنگام بشریت داریم – تلاشی مشابه منع گسترش سلاح‌های هسته‌ای.

مصطفی سلیمان بنیانگذار DeepMind و مدیر عامل فعلی Inflection AI گفت: “خوب است که می شنویم بسیاری از مردم شروع به جدی گرفتن در مورد ایمنی AGI کرده اند.” توییت کرد در جمعه. “ما باید بسیار جاه طلب باشیم. پروژه منهتن 0.4 درصد از تولید ناخالص داخلی ایالات متحده هزینه داشت. تصور کنید که یک برنامه معادل برای ایمنی امروز می تواند به چه چیزی برسد.”

اما بیشتر بحث در کنگره و کاخ سفید در مورد مقررات از طریق لنز اخلاق هوش مصنوعی است که بر آسیب های فعلی تمرکز دارد.

از این منظر، دولت‌ها باید شفافیت را در مورد نحوه جمع‌آوری و استفاده سیستم‌های هوش مصنوعی اعمال کنند، استفاده از آن را در مناطقی که مشمول قوانین ضد تبعیض هستند مانند مسکن یا اشتغال محدود کنند، و توضیح دهند که چگونه فناوری فعلی هوش مصنوعی ضعیف است. پیشنهاد منشور حقوق هوش مصنوعی کاخ سفید در اواخر سال گذشته شامل بسیاری از این نگرانی ها بود.

این اردو در جلسه استماع کنگره توسط IBM کریستینا مونتگومری، مدیر ارشد حریم خصوصی، که به قانونگذاران گفت معتقد است هر شرکتی که روی این فناوری‌ها کار می‌کند باید یک نقطه تماس “اخلاق هوش مصنوعی” داشته باشد.

مونتگومری به کنگره گفت: «باید راهنمایی روشنی در مورد استفاده‌های نهایی هوش مصنوعی یا دسته‌بندی‌های فعالیت‌های پشتیبانی‌شده با هوش مصنوعی که ذاتاً پرخطر هستند، وجود داشته باشد.

چگونه زبان هوش مصنوعی را مانند یک خودی درک کنیم

همچنین ببینید: چگونه در مورد هوش مصنوعی مانند یک خودی صحبت کنیم

جای تعجب نیست که بحث در مورد هوش مصنوعی زبان خاص خود را توسعه داده است. به عنوان یک رشته آکادمیک فنی شروع شد.

بسیاری از نرم‌افزارهایی که امروزه مورد بحث قرار می‌گیرند، مبتنی بر مدل‌های به اصطلاح زبان بزرگ (LLM) هستند که از واحدهای پردازش گرافیکی (GPU) برای پیش‌بینی جملات، تصاویر یا موسیقی احتمالی آماری استفاده می‌کنند، فرآیندی به نام «استنتاج». البته ابتدا باید مدل‌های هوش مصنوعی در فرآیند تحلیل داده‌ها به نام «آموزش» ساخته شوند.

اما اصطلاحات دیگر، به ویژه از طرفداران ایمنی هوش مصنوعی، ماهیت فرهنگی بیشتری دارند و اغلب به ارجاعات مشترک و جوک ها اشاره دارند.

به عنوان مثال، افراد ایمنی هوش مصنوعی ممکن است بگویند که نگران تبدیل شدن به یک هوش مصنوعی هستند گیره کاغذ. این به یک آزمایش فکری اشاره دارد که توسط فیلسوف نیک بوستروم رایج شده است که معتقد است یک هوش مصنوعی فوق قدرتمند – یک “فوق هوش” – می تواند مأموریت داشته باشد تا بیشترین تعداد گیره کاغذ بسازد و منطقاً تصمیم به کشتن انسان بگیرد و از آن گیره های کاغذی بسازد. بقایای آنها

لوگوی OpenAI از این داستان الهام گرفته شده است و این شرکت حتی گیره هایی به شکل لوگوی خود ساخته است.

مفهوم دیگر در ایمنی هوش مصنوعی “برخاستن سخت” یا “برخاستن سریع“، این عبارتی است که نشان می دهد اگر کسی موفق به ساخت یک AGI شود، برای نجات بشریت خیلی دیر شده است.

گاهی اوقات، این ایده در قالب یک onomatopeia توصیف می شود – “فوم– به ویژه در میان منتقدان این مفهوم.

مثل این است که شما به سناریوی مضحک «فوم» برخاستن سخت اعتقاد دارید، که به نظر می‌رسد درک درستی از نحوه کار همه چیز ندارید.» توییت کرد رئیس هوش مصنوعی متا، Yann LeCun، که به ادعاهای AGI شک دارد، در بحث اخیر در رسانه های اجتماعی.

اخلاق هوش مصنوعی نیز زبان خاص خود را دارد.

هنگام توصیف محدودیت‌های سیستم‌های LLM کنونی، که نمی‌توانند معنی را بفهمند، بلکه صرفاً زبانی شبیه به انسان تولید می‌کنند، افراد اخلاقیات هوش مصنوعی اغلب آنها را با “مقایسه می‌کنند.طوطی تصادفی

این تشبیه که توسط امیلی بندر، تیمنیت گبرو، آنجلینا مک‌میلان میجر و مارگارت میچل در مقاله‌ای که در زمانی که برخی از نویسندگان در گوگل بودند ابداع شد، تأکید می‌کند که اگرچه مدل‌های پیشرفته هوش مصنوعی می‌توانند متنی به ظاهر واقعی تولید کنند، نرم‌افزار آن را درک نمی‌کند. مفاهیم پشت زبان – مثل یک طوطی.

وقتی این LLM ها حقایق نادرستی را در پاسخ ها ابداع می کنند، “توهم آور

یکی از موضوعاتی که مونتگومری آی‌بی‌ام در این جلسه مطرح کرد این بود:توضیح پذیریدر نتایج هوش مصنوعی. این بدان معناست که وقتی محققان و متخصصان نتوانند به اعداد و مسیر دقیق عملیاتی که مدل‌های هوش مصنوعی بزرگتر برای استخراج خروجی خود استفاده می‌کنند اشاره کنند، این می‌تواند برخی سوگیری‌های ذاتی را در LLM پنهان کند.

عدنان مسعود، معمار هوش مصنوعی در UST-Global می‌گوید: «شما باید درباره الگوریتم قابلیت توضیح داشته باشید. قبلاً، اگر به الگوریتم‌های کلاسیک نگاه کنید، به شما می‌گوید: «چرا این تصمیم را می‌گیرم؟» اکنون با یک مدل بزرگتر، آنها در حال تبدیل شدن به این مدل عظیم هستند، آنها یک جعبه سیاه هستند.”

اصطلاح مهم دیگر این است که “نرده های محافظکه شامل نرم‌افزار و سیاست‌هایی است که شرکت‌های فناوری بزرگ در حال حاضر بر روی مدل‌های هوش مصنوعی ایجاد می‌کنند تا اطمینان حاصل کنند که داده‌ها درز نمی‌کنند یا محتوای مزاحم تولید نمی‌کنند، که اغلب نامیده می‌شود.خارج شدن از ریل

همچنین می‌تواند به برنامه‌های خاصی اشاره کند که از نرم‌افزار هوش مصنوعی در برابر خارج شدن از موضوع محافظت می‌کنند، مانند محصول «NeMo Guardrails» انویدیا.

مونتگومری این هفته گفت: «هیئت اخلاقیات هوش مصنوعی ما نقش مهمی در نظارت بر فرآیندهای حاکمیت هوش مصنوعی داخلی ایفا می‌کند و حفاظ‌های معقولی ایجاد می‌کند تا اطمینان حاصل شود که فناوری را به شیوه‌ای مسئولانه و ایمن به جهان معرفی می‌کنیم».

گاهی اوقات این اصطلاحات می توانند معانی متعددی داشته باشند، مانند مورد “رفتار اضطراری

مقاله اخیر مایکروسافت ریسرچ به نام “جرقه های هوش عمومی مصنوعی” ادعا می کند که چندین “رفتارهای نوظهور” را در GPT-4 OpenAI شناسایی کرده است، مانند توانایی ترسیم حیوانات با استفاده از یک زبان برنامه نویسی برای نمودارها.

اما همچنین می‌تواند توضیح دهد که چه اتفاقی می‌افتد زمانی که تغییرات ساده در مقیاس بسیار بزرگ ایجاد می‌شود – مانند الگوهایی که پرندگان هنگام پرواز در بسته‌ها ایجاد می‌کنند، یا، در مورد هوش مصنوعی، وقتی که ChatGPT و محصولات مشابه توسط میلیون‌ها نفر استفاده می‌شوند، چه اتفاقی می‌افتد. به عنوان هرزنامه یا اطلاعات نادرست گسترده.

تحقیقات BCA: 50/50 احتمال دارد که هوش مصنوعی تمام بشریت را از بین ببرد