سام آلتمن، مدیر عامل OpenAI در برابر یک جلسه استماع حریم خصوصی، فناوری، و کمیته حقوقی قوه قضائیه سنا با عنوان “نظارت بر هوش مصنوعی: قوانین برای هوش مصنوعی” در کاپیتول هیل در واشنگتن، ایالات متحده، 16 مه 2023 شهادت می دهد. رویترز/الیزابت فرانتز
الیزابت فرانتز | رویترز
در اکثر جلسات استماع مدیران عامل فناوری در سالهای اخیر، قانونگذاران لحن بحثانگیزانهای اتخاذ کردهاند و مدیران را در مورد شیوههای حفظ حریم خصوصی دادهها، روشهای رقابتی و موارد دیگر مورد انتقاد قرار دادهاند.
اما در جلسه سهشنبه درباره نظارت بر هوش مصنوعی از جمله سم آلتمن، مدیر عامل OpenAI، به نظر میرسد که قانونگذاران از سازنده ChatGPT استقبال بیشتری کردند. یکی از سناتورها حتی تا آنجا پیش رفت که پرسید آیا آلتمن صلاحیت اجرای قوانین تنظیم کننده صنعت را دارد یا خیر.
استقبال گرم آلتمن در کاپیتول هیل، که شامل یک گفتگوی شام شب قبل با ده ها قانونگذار مجلس نمایندگان و یک جلسه سخنرانی جداگانه بعد از ظهر سه شنبه با حضور کوین مک کارتی، رئیس مجلس نمایندگان، از کالیفرنیا بود، باعث نگرانی برخی از کارشناسان هوش مصنوعی شده است که در آن حضور نداشتند. حضور در این هفته
این کارشناسان هشدار میدهند که تصمیم قانونگذاران برای یادگیری این فناوری از یک مدیر اجرایی پیشرو در صنعت، میتواند راهحلهایی را که آنها به دنبال تنظیم مقررات هوش مصنوعی هستند، تحت تأثیر قرار دهد. در گفتگو با CNBC در روزهای پس از شهادت آلتمن، رهبران هوش مصنوعی از کنگره خواستند تا با مجموعهای از صداها در این زمینه تعامل داشته باشد تا اطمینان حاصل شود که به طیف گستردهای از نگرانیها رسیدگی میشود، نه تمرکز بر مواردی که در خدمت منافع شرکتها هستند.
OpenAI بلافاصله به درخواست نظر در مورد این داستان پاسخ نداد.
لحن دوستانه
برای برخی از کارشناسان، لحن جلسه و دیگر مشارکت های آلتمن در تپه زنگ خطر را برانگیخت.
به گفته مردیث ویتاکر، رئیس بنیاد سیگنال و یکی از بنیانگذاران مؤسسه AI Now در دانشگاه نیویورک، ستایش قانونگذاران از آلتمن در برخی مواقع تقریباً شبیه “پرستش افراد مشهور” بود.
او گفت: «شما سؤالات سخت را از افرادی که طرفدارشان هستید، نمیپرسید.
سارا مایرز وست، مدیر عامل مؤسسه AI Now گفت: «به نظر نمی رسد که شنیده ها حول محور مسئولیت پذیری باشند. “گفتن “اوه، شما باید مسئول یک سازمان نظارتی جدید باشید” یک موضع پاسخگویی نیست.
وست گفت که لحن “تحسین آمیز” برخی از نمایندگان پس از شام با آلتمن تعجب آور بود. او اذعان کرد که این احتمالاً یک “سیگنال است که آنها فقط سعی می کنند به نوعی سر خود را در مورد آنچه که این بازار جدید است بپیچانند، اگرچه جدید نیست. مدت زیادی است که وجود داشته است.”
صفیا اوموجا نوبل، استاد دانشگاه کالیفرنیا، لس آنجلس و نویسنده «الگوریتمهای ظلم: چگونه موتورهای جستجو نژادپرستی را تقویت میکنند»، گفت: قانونگذارانی که در ضیافت شام با آلتمن شرکت کردند به نظر میرسید «عمیقاً تحت تأثیر قرار گرفتهاند تا از محصول او و شرکتش قدردانی کنند. و همچنین به نظر نمی رسد که این یک بررسی منصفانه در مورد حقایق این فناوری ها باشد.”
نوبل گفت: «راستش، ناامیدکننده است که میبینیم کنگره به این مدیران عامل اجازه میدهد راه را برای کارت سفید، هر چه که میخواهند، شرایطی که برایشان مطلوبتر است، هموار کنند.
تفاوت های واقعی با عصر رسانه های اجتماعی؟
در جلسه سهشنبه سنا، قانونگذاران با دوران رسانههای اجتماعی مقایسه کردند و به تعجب خود اشاره کردند که مدیران صنعت ظاهر شدند و خواستار تنظیم مقررات شدند. اما کارشناسانی که با CNBC صحبت کردند گفتند که درخواستهای صنعت برای مقررات چیز جدیدی نیست و اغلب در خدمت منافع خود صنعت است.
ویتاکر میگوید: «این واقعاً مهم است که در اینجا به جزئیات توجه کنیم و اجازه ندهیم که ظاهراً جدید بودن فردی در فناوری که کلمه «قانونگذاری» را بدون تمسخر بیان میکند، ما را از مخاطرات واقعی و آنچه در واقع پیشنهاد میشود، یعنی محتوای آن مقررات منحرف کند. .
مردیت بروسارد، استاد دانشگاه نیویورک و نویسنده کتاب «بیش از یک نقص: مقابله با نژاد، جنسیت و تعصب توانایی در فناوری»، درباره فراخوان مقررات گفت: «فیسبوک سالها از این استراتژی استفاده میکند. “واقعا، کاری که آنها انجام می دهند این است که می گویند، “آه، بله، ما قطعاً آماده هستیم تا تحت نظارت قرار بگیریم” … و سپس آنها لابی می کنند. [for] دقیقا برعکس آنها از سردرگمی استفاده می کنند.”
کارشناسان هشدار دادند که انواع مقرراتی که آلتمن پیشنهاد کرد، مانند آژانسی برای نظارت بر هوش مصنوعی، در واقع می تواند مقررات را متوقف کند و متصدیان فعلی را تثبیت کند.
مارگارت میچل، محقق و دانشمند ارشد اخلاق در شرکت هوش مصنوعی Hugging Face، میگوید: «به نظر میرسد این راهی عالی برای کند کردن کامل هرگونه پیشرفت در مقررات است. دولت در حال حاضر منابع کافی برای حمایت از سازمان ها و نهادهایی که در حال حاضر دارند را ندارد.”
راویت دوتان، که یک آزمایشگاه اخلاق هوش مصنوعی در دانشگاه پیتسبورگ و همچنین اخلاق هوش مصنوعی در استارتآپ مولد هوش مصنوعی Bria.ai را رهبری میکند، گفت که اگرچه برای قانونگذاران منطقی است که نظرات شرکتهای فناوری بزرگ را در نظر بگیرند، زیرا آنها سهامداران اصلی هستند. آنها نباید بر گفتگو مسلط شوند.
یکی از نگرانیهایی که عموماً از سوی شرکتهای کوچکتر ناشی میشود این است که آیا مقررات چیزی است که آنقدر دست و پا گیر است که فقط شرکتهای بزرگ واقعاً قادر به مقابله با آن هستند. [it]دوتان گفت، و سپس شرکتهای کوچکتر بارهای زیادی را تحمل میکنند.
چندین محقق گفتند که دولت باید بر اجرای قوانینی که قبلاً روی کتابها وجود دارد تمرکز کند و از بیانیه مشترک اخیر آژانس که تأکید می کند ایالات متحده قبلاً قدرت اعمال در برابر نتایج تبعیض آمیز ناشی از استفاده از هوش مصنوعی را دارد.
دوتان گفت که نقاط روشنی در جلسه استماع وجود داشت که او احساس کرد قانونگذاران در سؤالات خود “آگاه شده اند”. اما در موارد دیگر، دوتان گفت که ای کاش قانونگذاران آلتمن را برای توضیحات یا تعهدات عمیق تر تحت فشار قرار می دادند.
به عنوان مثال، وقتی از آلتمن در مورد احتمال جابجایی مشاغل توسط هوش مصنوعی پرسیده شد، گفت که در نهایت مشاغل با کیفیت بیشتری ایجاد می کند. در حالی که دوتان گفت که با این ارزیابی موافق است، او آرزو میکرد که قانونگذاران از آلتمن راهحلهای بالقوه بیشتری برای کمک به کارگران آواره برای یافتن زندگی یا کسب آموزش مهارتها در این مدت، قبل از اینکه فرصتهای شغلی جدید گستردهتر شود، میخواستند.
“چیزهای زیادی وجود دارد که یک شرکت با قدرت OpenAI از آنها پشتیبانی می کند مایکروسافت دوتان گفت: “بنابراین، برای من، اینکه آن را به عنوان “بازار شما در نهایت خود را مرتب می کند” بگذارم، بسیار ناامیدکننده بود.
تنوع صداها
پیام کلیدی کارشناسان هوش مصنوعی برای قانونگذاران و مقامات دولتی این است که طیف وسیع تری از صداها را هم در زمینه شخصی و هم در زمینه تجربه در بر گیرند.
نوبل گفت: «من فکر میکنم سازمانهای اجتماعی و محققان باید پشت میز مذاکره باشند؛ افرادی که اثرات مضر انواع مختلف فناوریها را مطالعه کردهاند، باید پشت میز مذاکره باشند. ما باید سیاستها و منابعی را برای افرادی که توسط این فناوریها آسیب دیدهاند و آسیب دیدهاند در دسترس داشته باشیم… ایدههای بسیار خوبی برای تعمیر وجود دارد که از سوی افرادی که آسیب دیدهاند ارائه میشوند. مشارکت در آن راه ها».
میچل گفت که امیدوار است کنگره به طور خاص با افرادی که در ممیزی ابزارهای هوش مصنوعی و متخصصان سرمایه داری نظارتی و تعاملات انسان و رایانه و غیره درگیر هستند، تعامل داشته باشد. وست پیشنهاد کرد که افراد متخصص در زمینههایی که تحت تأثیر هوش مصنوعی قرار میگیرند نیز باید شامل شوند، مانند کارشناسان کار و آب و هوا.
ویتاکر با اشاره به اعتصاب انجمن نویسندگان آمریکا که در آن خواستهها شامل حمایت از شغل از هوش مصنوعی میشود، اشاره کرد که ممکن است «بذرهای امیدوارکنندهتری از مقررات معنادار خارج از دولت فدرال» وجود داشته باشد.
به گفته نوبل، دولت همچنین باید توجه بیشتری داشته باشد و منابع بیشتری را به محققان در زمینههایی مانند علوم اجتماعی، که نقش زیادی در کشف راههایی که فناوری میتواند منجر به تبعیض و سوگیری شود، ارائه دهد.
او گفت: «بسیاری از چالشهای مربوط به تأثیر هوش مصنوعی در جامعه از سوی انسانگرایان و دانشمندان علوم اجتماعی نشات میگیرد. با این حال، ما میبینیم که بودجهای که بر اساس یافتههای ما است، اکنون به بخشهای علوم رایانه که در کنار صنعت کار میکنند، توزیع میشود.»
نوبل گفت که از دیدن این موضوع “تعجب” کرد به نظر می رسید که اعلامیه کاخ سفید برای تامین مالی هفت مرکز تحقیقاتی جدید هوش مصنوعی تاکیدی بر علم کامپیوتر داشته باشد.
بسیاری از زنانی که من می شناسم که در 20 سال گذشته صداهای پیشرو در مورد آسیب های هوش مصنوعی بوده اند، به کاخ سفید دعوت نشده اند، توسط NSF تامین مالی نمی شوند. [and] نوبل گفت: “در هیچ نوع حمایت دگرگونی گنجانده نشده است.”
نوبل به نشست کاخ سفید در اوایل این ماه اشاره کرد که شامل آلتمن و سایر مدیران عامل فناوری مانند گوگل ساندار پیچای و ساتیا نادلا از مایکروسافت. نجیب گفت عکس در آن جلسه “واقعاً داستان این بود که چه کسی خود را در راس امور قرار داده است… همان افرادی که ایجاد کننده مشکلات بوده اند اکنون به نوعی مسئول راه حل ها هستند.”
نوبل گفت که جذب محققان مستقل برای تعامل با دولت به این متخصصان فرصت هایی می دهد تا “مقابله های مهم” را برای شهادت شرکت ها ایجاد کنند.
با این حال، کارشناسان دیگر خاطرنشان کردند که آنها و همتایانشان با دولت در مورد هوش مصنوعی درگیر شدهاند، البته بدون همان توجه رسانهای که شنیدههای آلتمن دریافت کرد و شاید بدون رویداد بزرگی مانند شامی که آلتمن با حضور گسترده قانونگذاران در آن شرکت کرد.
میچل نگران است که قانونگذاران اکنون از گفتگوهای خود با رهبران صنعت “آغاز” شده اند.
میچل گفت: «آنها تصمیم گرفتند که این گفتگوها را آغاز کنند، تا این بحث ها را در راستای منافع شرکت ها قرار دهند. آنها می توانستند در جهتی کاملاً مخالف بروند و آخرین بار از آنها بپرسند.
میچل گفت که از نظرات آلتمن در مورد بخش 230 قدردانی می کند، قانونی که به سیستم عامل های آنلاین کمک می کند تا در برابر صحبت های کاربران خود مسئول شناخته شوند. آلتمن اذعان داشت که خروجی ابزارهای هوش مصنوعی مولد لزوماً تحت پوشش سپر مسئولیت قانونی قرار نمی گیرند و برای ارزیابی مسئولیت محصولات هوش مصنوعی به چارچوب متفاوتی نیاز است.
میچل گفت: “من فکر می کنم، در نهایت، دولت ایالات متحده به سمتی خواهد رفت که به نفع شرکت های بزرگ فناوری باشد.” “امید من این است که افراد دیگر، یا افرادی مانند من، حداقل بتوانند آسیب را به حداقل برسانند، یا برخی از شیطان را در جزئیات نشان دهند تا از برخی از ایده های مشکل سازتر دور شوند.”
بروسارد میگوید: «گروهی از مردم وجود دارند که درباره مشکلات، از جمله تعصب در امتداد خطوط نژاد، جنسیت و ناتوانی، در سیستمهای هوش مصنوعی هشدار میدهند.» و اگر صداهای انتقادی به اندازه صداهای تجاری بالا بروند، فکر میکنم دیالوگ قویتری خواهیم داشت.»
مشترک CNBC در یوتیوب شوید.
تماشا کنید: آیا شبیهسازیهای ChatGPT چین میتوانند در مسابقه تسلیحاتی هوش مصنوعی بر آمریکا برتری پیدا کنند؟