متا برای اولین بار پرده تراشه های هوش مصنوعی خود را کنار می کشد

متا تراشه‌های رایانه‌ای سفارشی برای کمک به وظایف هوش مصنوعی و پردازش ویدیو ساخته است و برای اولین بار در مورد آنها به صورت عمومی صحبت می‌کند.

این غول شبکه‌های اجتماعی، پروژه‌های تراشه‌های سیلیکونی داخلی خود را برای اولین بار در اوایل این هفته، پیش از یک رویداد مجازی که پنجشنبه در مورد سرمایه‌گذاری‌های زیرساخت فنی هوش مصنوعی خود بحث می‌کرد، به خبرنگاران فاش کرد.

سرمایه‌گذاران از نزدیک سرمایه‌گذاری متا در هوش مصنوعی و سخت‌افزار مرکز داده مرتبط را زیر نظر دارند، زیرا این شرکت در «سال کارآمدی» که شامل حداقل 21000 اخراج و کاهش هزینه‌های عمده است، آغاز می‌شود.

اگرچه طراحی و ساخت تراشه های کامپیوتری خود برای یک شرکت گران است، الکسیس بیورلین، معاون زیرساخت به CNBC گفت که متا معتقد است که عملکرد بهبود یافته سرمایه گذاری را توجیه می کند. این شرکت همچنین طراحی های مرکز داده خود را برای تمرکز بیشتر بر روی تکنیک های کم مصرف، مانند خنک کننده مایع، برای کاهش گرمای اضافی، بازنگری کرده است.

یکی از تراشه‌های رایانه‌ای جدید، Meta Scalable Video Processor یا MSVP، برای پردازش و انتقال ویدئو به کاربران و در عین حال کاهش نیاز انرژی استفاده می‌شود. Bjorlin گفت: “هیچ چیز تجاری در دسترس نیست” که بتواند وظیفه پردازش و ارائه 4 میلیارد ویدیو در روز را به همان اندازه که متا می خواست انجام دهد.

پردازنده دیگر اولین پردازنده در خانواده تراشه‌های متا آموزش و استنتاج شرکت یا MTIA است که برای کمک به وظایف مختلف هوش مصنوعی طراحی شده است. تراشه جدید MTIA به طور خاص «استنتاج» را کنترل می‌کند، یعنی زمانی که یک مدل هوش مصنوعی آموزش دیده پیش‌بینی می‌کند یا اقدامی انجام می‌دهد.

Bjorlin گفت که تراشه استنتاج جدید هوش مصنوعی به تقویت برخی از الگوریتم‌های توصیه متا برای نمایش محتوا و تبلیغات در فیدهای خبری افراد کمک می‌کند. او از پاسخ دادن به این که چه کسی این تراشه را تولید می کند خودداری کرد، اما در یک پست وبلاگی گفت که این پردازنده “در فرآیند 7 نانومتری TSMC ساخته شده است” که نشان می دهد غول تراشه تایوان Semiconductor Manufacturing در حال تولید این فناوری است.

او گفت متا یک «نقشه راه چند نسلی» برای خانواده تراشه‌های هوش مصنوعی خود دارد که شامل پردازنده‌هایی است که برای آموزش مدل‌های هوش مصنوعی استفاده می‌شوند، اما او از ارائه جزئیات فراتر از تراشه استنتاج جدید خودداری کرد. رویترز قبلاً گزارش داده بود که متا یک پروژه تراشه استنتاج هوش مصنوعی را لغو کرد و پروژه دیگری را که قرار بود در حدود سال 2025 اجرا شود آغاز کرد، اما Bjorlin از اظهار نظر در مورد آن گزارش خودداری کرد.

او گفت، از آنجایی که متا در زمینه فروش خدمات رایانش ابری مانند شرکت هایی از جمله آلفابت مادر گوگل یا مایکروسافت فعالیت ندارد، این شرکت احساس نمی کرد که به طور عمومی در مورد پروژه های تراشه مرکز داده داخلی خود صحبت کند.

بیورلین گفت: «اگر به آنچه که ما به اشتراک می‌گذاریم نگاه کنید – دو تراشه اول ما که توسعه داده‌ایم – قطعاً دید کمی از آنچه در داخل انجام می‌دهیم به شما می‌دهد. ما مجبور نبوده‌ایم این را تبلیغ کنیم و نیازی هم نداریم که این را تبلیغ کنیم، اما می‌دانید، دنیا علاقه‌مند است.»

آپارنا رامانی، معاون مهندسی متا گفت که سخت افزار جدید این شرکت برای کارکرد موثر با نرم افزار PyTorch خانگی خود ساخته شده است، نرم افزاری که به یکی از محبوب ترین ابزارهای مورد استفاده توسعه دهندگان شخص ثالث برای ایجاد برنامه های هوش مصنوعی تبدیل شده است.

سخت‌افزار جدید در نهایت برای تقویت وظایف مرتبط با متاورژن، مانند واقعیت مجازی و واقعیت افزوده، و همچنین حوزه رو به رشد هوش مصنوعی مولد، که عموماً به نرم‌افزار هوش مصنوعی اشاره دارد که می‌تواند متن، تصاویر و ویدیوهای جذاب ایجاد کند، استفاده خواهد شد.

رامانی همچنین گفت متا یک دستیار کدنویسی مولد مبتنی بر هوش مصنوعی را برای توسعه دهندگان این شرکت توسعه داده است تا به آنها کمک کند راحت تر نرم افزار ایجاد و کار کنند. دستیار جدید شبیه ابزار GitHub Copilot مایکروسافت است که در سال 2021 با کمک استارتاپ هوش مصنوعی OpenAI منتشر کرد.

علاوه بر این، متا گفت که ساخت فاز دوم یا نهایی ابررایانه خود به نام Research SuperCluster یا RSC را به پایان رسانده است که این شرکت در سال گذشته جزئیات آن را توضیح داد. متا از این ابررایانه که شامل 16000 پردازنده گرافیکی Nvidia A100 است، برای آموزش مدل زبان LLaMA این شرکت و سایر کاربردها استفاده کرد.

رامانی گفت متا همچنان بر اساس اعتقاد خود عمل می کند که باید به فناوری های منبع باز و تحقیقات هوش مصنوعی کمک کند تا زمینه فناوری را پیش ببرد. این شرکت فاش کرده است که بزرگترین مدل زبان LLaMA آن، LLaMA 65B، حاوی 65 میلیارد پارامتر است و بر روی 1.4 تریلیون توکن آموزش دیده است که به داده های مورد استفاده برای آموزش هوش مصنوعی اشاره دارد.

شرکت‌هایی مانند OpenAI و Google به‌طور عمومی معیارهای مشابهی را برای مدل‌های زبان بزرگ رقیب خود فاش نکرده‌اند، اگرچه CNBC این هفته گزارش داد که مدل PalM 2 گوگل بر روی 3.6 تریلیون توکن آموزش دیده و حاوی 340 میلیارد پارامتر است.

برخلاف دیگر شرکت‌های فناوری، متا مدل زبان LLaMA خود را در اختیار محققان قرار داد تا بتوانند از این فناوری بیاموزند. با این حال، مدل زبان LlaMA پس از آن به عموم مردم فاش شد، که منجر به ساخت اپلیکیشن‌های بسیاری از توسعه‌دهندگان با استفاده از این فناوری شد.

رامانی گفت متا “هنوز در حال فکر کردن به همه همکاری های منبع باز ما است و مطمئناً می خواهم تکرار کنم که فلسفه ما هنوز علم باز و همکاری متقابل است.”

تماشا کردن: هوش مصنوعی محرک بزرگ احساسات برای فناوری های بزرگ است