کارشناسان هوش مصنوعی از کنگره می‌خواهند که به صداهای مختلف در مورد مقررات گوش دهد

سام آلتمن، مدیر عامل OpenAI در برابر یک جلسه استماع حریم خصوصی، فناوری، و کمیته حقوقی قوه قضائیه سنا با عنوان “نظارت بر هوش مصنوعی: قوانین برای هوش مصنوعی” در کاپیتول هیل در واشنگتن، ایالات متحده، 16 مه 2023 شهادت می دهد. رویترز/الیزابت فرانتز

الیزابت فرانتز | رویترز

در اکثر جلسات استماع مدیران عامل فناوری در سال‌های اخیر، قانون‌گذاران لحن بحث‌انگیزانه‌ای اتخاذ کرده‌اند و مدیران را در مورد شیوه‌های حفظ حریم خصوصی داده‌ها، روش‌های رقابتی و موارد دیگر مورد انتقاد قرار داده‌اند.

اما در جلسه سه‌شنبه درباره نظارت بر هوش مصنوعی از جمله سم آلتمن، مدیر عامل OpenAI، به نظر می‌رسد که قانون‌گذاران از سازنده ChatGPT استقبال بیشتری کردند. یکی از سناتورها حتی تا آنجا پیش رفت که پرسید آیا آلتمن صلاحیت اجرای قوانین تنظیم کننده صنعت را دارد یا خیر.

استقبال گرم آلتمن در کاپیتول هیل، که شامل یک گفتگوی شام شب قبل با ده ها قانونگذار مجلس نمایندگان و یک جلسه سخنرانی جداگانه بعد از ظهر سه شنبه با حضور کوین مک کارتی، رئیس مجلس نمایندگان، از کالیفرنیا بود، باعث نگرانی برخی از کارشناسان هوش مصنوعی شده است که در آن حضور نداشتند. حضور در این هفته

این کارشناسان هشدار می‌دهند که تصمیم قانون‌گذاران برای یادگیری این فناوری از یک مدیر اجرایی پیشرو در صنعت، می‌تواند راه‌حل‌هایی را که آنها به دنبال تنظیم مقررات هوش مصنوعی هستند، تحت تأثیر قرار دهد. در گفتگو با CNBC در روزهای پس از شهادت آلتمن، رهبران هوش مصنوعی از کنگره خواستند تا با مجموعه‌ای از صداها در این زمینه تعامل داشته باشد تا اطمینان حاصل شود که به طیف گسترده‌ای از نگرانی‌ها رسیدگی می‌شود، نه تمرکز بر مواردی که در خدمت منافع شرکت‌ها هستند.

OpenAI بلافاصله به درخواست نظر در مورد این داستان پاسخ نداد.

لحن دوستانه

برای برخی از کارشناسان، لحن جلسه و دیگر مشارکت های آلتمن در تپه زنگ خطر را برانگیخت.

به گفته مردیث ویتاکر، رئیس بنیاد سیگنال و یکی از بنیانگذاران مؤسسه AI Now در دانشگاه نیویورک، ستایش قانونگذاران از آلتمن در برخی مواقع تقریباً شبیه “پرستش افراد مشهور” بود.

او گفت: «شما سؤالات سخت را از افرادی که طرفدارشان هستید، نمی‌پرسید.

سارا مایرز وست، مدیر عامل مؤسسه AI Now گفت: «به نظر نمی رسد که شنیده ها حول محور مسئولیت پذیری باشند. “گفتن “اوه، شما باید مسئول یک سازمان نظارتی جدید باشید” یک موضع پاسخگویی نیست.

وست گفت که لحن “تحسین آمیز” برخی از نمایندگان پس از شام با آلتمن تعجب آور بود. او اذعان کرد که این احتمالاً یک “سیگنال است که آنها فقط سعی می کنند به نوعی سر خود را در مورد آنچه که این بازار جدید است بپیچانند، اگرچه جدید نیست. مدت زیادی است که وجود داشته است.”

صفیا اوموجا نوبل، استاد دانشگاه کالیفرنیا، لس آنجلس و نویسنده «الگوریتم‌های ظلم: چگونه موتورهای جستجو نژادپرستی را تقویت می‌کنند»، گفت: قانون‌گذارانی که در ضیافت شام با آلتمن شرکت کردند به نظر می‌رسید «عمیقاً تحت تأثیر قرار گرفته‌اند تا از محصول او و شرکتش قدردانی کنند. و همچنین به نظر نمی رسد که این یک بررسی منصفانه در مورد حقایق این فناوری ها باشد.”

نوبل گفت: «راستش، ناامیدکننده است که می‌بینیم کنگره به این مدیران عامل اجازه می‌دهد راه را برای کارت سفید، هر چه که می‌خواهند، شرایطی که برایشان مطلوب‌تر است، هموار کنند.

تفاوت های واقعی با عصر رسانه های اجتماعی؟

سم آلتمن از OpenAI در مقابل کنگره شهادت می دهد - لحظات کلیدی در اینجا آمده است

در جلسه سه‌شنبه سنا، قانون‌گذاران با دوران رسانه‌های اجتماعی مقایسه کردند و به تعجب خود اشاره کردند که مدیران صنعت ظاهر شدند و خواستار تنظیم مقررات شدند. اما کارشناسانی که با CNBC صحبت کردند گفتند که درخواست‌های صنعت برای مقررات چیز جدیدی نیست و اغلب در خدمت منافع خود صنعت است.

ویتاکر می‌گوید: «این واقعاً مهم است که در اینجا به جزئیات توجه کنیم و اجازه ندهیم که ظاهراً جدید بودن فردی در فناوری که کلمه «قانون‌گذاری» را بدون تمسخر بیان می‌کند، ما را از مخاطرات واقعی و آنچه در واقع پیشنهاد می‌شود، یعنی محتوای آن مقررات منحرف کند. .

مردیت بروسارد، استاد دانشگاه نیویورک و نویسنده کتاب «بیش از یک نقص: مقابله با نژاد، جنسیت و تعصب توانایی در فناوری»، درباره فراخوان مقررات گفت: «فیس‌بوک سال‌ها از این استراتژی استفاده می‌کند. “واقعا، کاری که آنها انجام می دهند این است که می گویند، “آه، بله، ما قطعاً آماده هستیم تا تحت نظارت قرار بگیریم” … و سپس آنها لابی می کنند. [for] دقیقا برعکس آنها از سردرگمی استفاده می کنند.”

کارشناسان هشدار دادند که انواع مقرراتی که آلتمن پیشنهاد کرد، مانند آژانسی برای نظارت بر هوش مصنوعی، در واقع می تواند مقررات را متوقف کند و متصدیان فعلی را تثبیت کند.

مارگارت میچل، محقق و دانشمند ارشد اخلاق در شرکت هوش مصنوعی Hugging Face، می‌گوید: «به نظر می‌رسد این راهی عالی برای کند کردن کامل هرگونه پیشرفت در مقررات است. دولت در حال حاضر منابع کافی برای حمایت از سازمان ها و نهادهایی که در حال حاضر دارند را ندارد.”

راویت دوتان، که یک آزمایشگاه اخلاق هوش مصنوعی در دانشگاه پیتسبورگ و همچنین اخلاق هوش مصنوعی در استارت‌آپ مولد هوش مصنوعی Bria.ai را رهبری می‌کند، گفت که اگرچه برای قانون‌گذاران منطقی است که نظرات شرکت‌های فناوری بزرگ را در نظر بگیرند، زیرا آنها سهامداران اصلی هستند. آنها نباید بر گفتگو مسلط شوند.

یکی از نگرانی‌هایی که عموماً از سوی شرکت‌های کوچک‌تر ناشی می‌شود این است که آیا مقررات چیزی است که آنقدر دست و پا گیر است که فقط شرکت‌های بزرگ واقعاً قادر به مقابله با آن هستند. [it]دوتان گفت، و سپس شرکت‌های کوچک‌تر بارهای زیادی را تحمل می‌کنند.

چندین محقق گفتند که دولت باید بر اجرای قوانینی که قبلاً روی کتاب‌ها وجود دارد تمرکز کند و از بیانیه مشترک اخیر آژانس که تأکید می کند ایالات متحده قبلاً قدرت اعمال در برابر نتایج تبعیض آمیز ناشی از استفاده از هوش مصنوعی را دارد.

دوتان گفت که نقاط روشنی در جلسه استماع وجود داشت که او احساس کرد قانونگذاران در سؤالات خود “آگاه شده اند”. اما در موارد دیگر، دوتان گفت که ای کاش قانونگذاران آلتمن را برای توضیحات یا تعهدات عمیق تر تحت فشار قرار می دادند.

به عنوان مثال، وقتی از آلتمن در مورد احتمال جابجایی مشاغل توسط هوش مصنوعی پرسیده شد، گفت که در نهایت مشاغل با کیفیت بیشتری ایجاد می کند. در حالی که دوتان گفت که با این ارزیابی موافق است، او آرزو می‌کرد که قانون‌گذاران از آلتمن راه‌حل‌های بالقوه بیشتری برای کمک به کارگران آواره برای یافتن زندگی یا کسب آموزش مهارت‌ها در این مدت، قبل از اینکه فرصت‌های شغلی جدید گسترده‌تر شود، می‌خواستند.

“چیزهای زیادی وجود دارد که یک شرکت با قدرت OpenAI از آنها پشتیبانی می کند مایکروسافت دوتان گفت: “بنابراین، برای من، اینکه آن را به عنوان “بازار شما در نهایت خود را مرتب می کند” بگذارم، بسیار ناامیدکننده بود.

تنوع صداها

پیام کلیدی کارشناسان هوش مصنوعی برای قانونگذاران و مقامات دولتی این است که طیف وسیع تری از صداها را هم در زمینه شخصی و هم در زمینه تجربه در بر گیرند.

نوبل گفت: «من فکر می‌کنم سازمان‌های اجتماعی و محققان باید پشت میز مذاکره باشند؛ افرادی که اثرات مضر انواع مختلف فناوری‌ها را مطالعه کرده‌اند، باید پشت میز مذاکره باشند. ما باید سیاست‌ها و منابعی را برای افرادی که توسط این فناوری‌ها آسیب دیده‌اند و آسیب دیده‌اند در دسترس داشته باشیم… ایده‌های بسیار خوبی برای تعمیر وجود دارد که از سوی افرادی که آسیب دیده‌اند ارائه می‌شوند. مشارکت در آن راه ها».

میچل گفت که امیدوار است کنگره به طور خاص با افرادی که در ممیزی ابزارهای هوش مصنوعی و متخصصان سرمایه داری نظارتی و تعاملات انسان و رایانه و غیره درگیر هستند، تعامل داشته باشد. وست پیشنهاد کرد که افراد متخصص در زمینه‌هایی که تحت تأثیر هوش مصنوعی قرار می‌گیرند نیز باید شامل شوند، مانند کارشناسان کار و آب و هوا.

ویتاکر با اشاره به اعتصاب انجمن نویسندگان آمریکا که در آن خواسته‌ها شامل حمایت از شغل از هوش مصنوعی می‌شود، اشاره کرد که ممکن است «بذرهای امیدوارکننده‌تری از مقررات معنادار خارج از دولت فدرال» وجود داشته باشد.

به گفته نوبل، دولت همچنین باید توجه بیشتری داشته باشد و منابع بیشتری را به محققان در زمینه‌هایی مانند علوم اجتماعی، که نقش زیادی در کشف راه‌هایی که فناوری می‌تواند منجر به تبعیض و سوگیری شود، ارائه دهد.

او گفت: «بسیاری از چالش‌های مربوط به تأثیر هوش مصنوعی در جامعه از سوی انسان‌گرایان و دانشمندان علوم اجتماعی نشات می‌گیرد. با این حال، ما می‌بینیم که بودجه‌ای که بر اساس یافته‌های ما است، اکنون به بخش‌های علوم رایانه که در کنار صنعت کار می‌کنند، توزیع می‌شود.»

نوبل گفت که از دیدن این موضوع “تعجب” کرد به نظر می رسید که اعلامیه کاخ سفید برای تامین مالی هفت مرکز تحقیقاتی جدید هوش مصنوعی تاکیدی بر علم کامپیوتر داشته باشد.

بسیاری از زنانی که من می شناسم که در 20 سال گذشته صداهای پیشرو در مورد آسیب های هوش مصنوعی بوده اند، به کاخ سفید دعوت نشده اند، توسط NSF تامین مالی نمی شوند. [and] نوبل گفت: “در هیچ نوع حمایت دگرگونی گنجانده نشده است.”

نوبل به نشست کاخ سفید در اوایل این ماه اشاره کرد که شامل آلتمن و سایر مدیران عامل فناوری مانند گوگل ساندار پیچای و ساتیا نادلا از مایکروسافت. نجیب گفت عکس در آن جلسه “واقعاً داستان این بود که چه کسی خود را در راس امور قرار داده است… همان افرادی که ایجاد کننده مشکلات بوده اند اکنون به نوعی مسئول راه حل ها هستند.”

نوبل گفت که جذب محققان مستقل برای تعامل با دولت به این متخصصان فرصت هایی می دهد تا “مقابله های مهم” را برای شهادت شرکت ها ایجاد کنند.

با این حال، کارشناسان دیگر خاطرنشان کردند که آنها و همتایانشان با دولت در مورد هوش مصنوعی درگیر شده‌اند، البته بدون همان توجه رسانه‌ای که شنیده‌های آلتمن دریافت کرد و شاید بدون رویداد بزرگی مانند شامی که آلتمن با حضور گسترده قانون‌گذاران در آن شرکت کرد.

میچل نگران است که قانونگذاران اکنون از گفتگوهای خود با رهبران صنعت “آغاز” شده اند.

میچل گفت: «آنها تصمیم گرفتند که این گفتگوها را آغاز کنند، تا این بحث ها را در راستای منافع شرکت ها قرار دهند. آنها می توانستند در جهتی کاملاً مخالف بروند و آخرین بار از آنها بپرسند.

میچل گفت که از نظرات آلتمن در مورد بخش 230 قدردانی می کند، قانونی که به سیستم عامل های آنلاین کمک می کند تا در برابر صحبت های کاربران خود مسئول شناخته شوند. آلتمن اذعان داشت که خروجی ابزارهای هوش مصنوعی مولد لزوماً تحت پوشش سپر مسئولیت قانونی قرار نمی گیرند و برای ارزیابی مسئولیت محصولات هوش مصنوعی به چارچوب متفاوتی نیاز است.

میچل گفت: “من فکر می کنم، در نهایت، دولت ایالات متحده به سمتی خواهد رفت که به نفع شرکت های بزرگ فناوری باشد.” “امید من این است که افراد دیگر، یا افرادی مانند من، حداقل بتوانند آسیب را به حداقل برسانند، یا برخی از شیطان را در جزئیات نشان دهند تا از برخی از ایده های مشکل سازتر دور شوند.”

بروسارد می‌گوید: «گروهی از مردم وجود دارند که درباره مشکلات، از جمله تعصب در امتداد خطوط نژاد، جنسیت و ناتوانی، در سیستم‌های هوش مصنوعی هشدار می‌دهند.» و اگر صداهای انتقادی به اندازه صداهای تجاری بالا بروند، فکر می‌کنم دیالوگ قوی‌تری خواهیم داشت.»

مشترک CNBC در یوتیوب شوید.

تماشا کنید: آیا شبیه‌سازی‌های ChatGPT چین می‌توانند در مسابقه تسلیحاتی هوش مصنوعی بر آمریکا برتری پیدا کنند؟

آیا کلون های ChatGPT چین می توانند در مسابقه تسلیحاتی هوش مصنوعی به آن برتری نسبت به ایالات متحده بدهند؟