متا تراشههای رایانهای سفارشی برای کمک به وظایف هوش مصنوعی و پردازش ویدیو ساخته است و برای اولین بار در مورد آنها به صورت عمومی صحبت میکند.
این غول شبکههای اجتماعی، پروژههای تراشههای سیلیکونی داخلی خود را برای اولین بار در اوایل این هفته، پیش از یک رویداد مجازی که پنجشنبه در مورد سرمایهگذاریهای زیرساخت فنی هوش مصنوعی خود بحث میکرد، به خبرنگاران فاش کرد.
سرمایهگذاران از نزدیک سرمایهگذاری متا در هوش مصنوعی و سختافزار مرکز داده مرتبط را زیر نظر دارند، زیرا این شرکت در «سال کارآمدی» که شامل حداقل 21000 اخراج و کاهش هزینههای عمده است، آغاز میشود.
اگرچه طراحی و ساخت تراشه های کامپیوتری خود برای یک شرکت گران است، الکسیس بیورلین، معاون زیرساخت به CNBC گفت که متا معتقد است که عملکرد بهبود یافته سرمایه گذاری را توجیه می کند. این شرکت همچنین طراحی های مرکز داده خود را برای تمرکز بیشتر بر روی تکنیک های کم مصرف، مانند خنک کننده مایع، برای کاهش گرمای اضافی، بازنگری کرده است.
یکی از تراشههای رایانهای جدید، Meta Scalable Video Processor یا MSVP، برای پردازش و انتقال ویدئو به کاربران و در عین حال کاهش نیاز انرژی استفاده میشود. Bjorlin گفت: “هیچ چیز تجاری در دسترس نیست” که بتواند وظیفه پردازش و ارائه 4 میلیارد ویدیو در روز را به همان اندازه که متا می خواست انجام دهد.
پردازنده دیگر اولین پردازنده در خانواده تراشههای متا آموزش و استنتاج شرکت یا MTIA است که برای کمک به وظایف مختلف هوش مصنوعی طراحی شده است. تراشه جدید MTIA به طور خاص «استنتاج» را کنترل میکند، یعنی زمانی که یک مدل هوش مصنوعی آموزش دیده پیشبینی میکند یا اقدامی انجام میدهد.
Bjorlin گفت که تراشه استنتاج جدید هوش مصنوعی به تقویت برخی از الگوریتمهای توصیه متا برای نمایش محتوا و تبلیغات در فیدهای خبری افراد کمک میکند. او از پاسخ دادن به این که چه کسی این تراشه را تولید می کند خودداری کرد، اما در یک پست وبلاگی گفت که این پردازنده “در فرآیند 7 نانومتری TSMC ساخته شده است” که نشان می دهد غول تراشه تایوان Semiconductor Manufacturing در حال تولید این فناوری است.
او گفت متا یک «نقشه راه چند نسلی» برای خانواده تراشههای هوش مصنوعی خود دارد که شامل پردازندههایی است که برای آموزش مدلهای هوش مصنوعی استفاده میشوند، اما او از ارائه جزئیات فراتر از تراشه استنتاج جدید خودداری کرد. رویترز قبلاً گزارش داده بود که متا یک پروژه تراشه استنتاج هوش مصنوعی را لغو کرد و پروژه دیگری را که قرار بود در حدود سال 2025 اجرا شود آغاز کرد، اما Bjorlin از اظهار نظر در مورد آن گزارش خودداری کرد.
او گفت، از آنجایی که متا در زمینه فروش خدمات رایانش ابری مانند شرکت هایی از جمله آلفابت مادر گوگل یا مایکروسافت فعالیت ندارد، این شرکت احساس نمی کرد که به طور عمومی در مورد پروژه های تراشه مرکز داده داخلی خود صحبت کند.
بیورلین گفت: «اگر به آنچه که ما به اشتراک میگذاریم نگاه کنید – دو تراشه اول ما که توسعه دادهایم – قطعاً دید کمی از آنچه در داخل انجام میدهیم به شما میدهد. ما مجبور نبودهایم این را تبلیغ کنیم و نیازی هم نداریم که این را تبلیغ کنیم، اما میدانید، دنیا علاقهمند است.»
آپارنا رامانی، معاون مهندسی متا گفت که سخت افزار جدید این شرکت برای کارکرد موثر با نرم افزار PyTorch خانگی خود ساخته شده است، نرم افزاری که به یکی از محبوب ترین ابزارهای مورد استفاده توسعه دهندگان شخص ثالث برای ایجاد برنامه های هوش مصنوعی تبدیل شده است.
سختافزار جدید در نهایت برای تقویت وظایف مرتبط با متاورژن، مانند واقعیت مجازی و واقعیت افزوده، و همچنین حوزه رو به رشد هوش مصنوعی مولد، که عموماً به نرمافزار هوش مصنوعی اشاره دارد که میتواند متن، تصاویر و ویدیوهای جذاب ایجاد کند، استفاده خواهد شد.
رامانی همچنین گفت متا یک دستیار کدنویسی مولد مبتنی بر هوش مصنوعی را برای توسعه دهندگان این شرکت توسعه داده است تا به آنها کمک کند راحت تر نرم افزار ایجاد و کار کنند. دستیار جدید شبیه ابزار GitHub Copilot مایکروسافت است که در سال 2021 با کمک استارتاپ هوش مصنوعی OpenAI منتشر کرد.
علاوه بر این، متا گفت که ساخت فاز دوم یا نهایی ابررایانه خود به نام Research SuperCluster یا RSC را به پایان رسانده است که این شرکت در سال گذشته جزئیات آن را توضیح داد. متا از این ابررایانه که شامل 16000 پردازنده گرافیکی Nvidia A100 است، برای آموزش مدل زبان LLaMA این شرکت و سایر کاربردها استفاده کرد.
رامانی گفت متا همچنان بر اساس اعتقاد خود عمل می کند که باید به فناوری های منبع باز و تحقیقات هوش مصنوعی کمک کند تا زمینه فناوری را پیش ببرد. این شرکت فاش کرده است که بزرگترین مدل زبان LLaMA آن، LLaMA 65B، حاوی 65 میلیارد پارامتر است و بر روی 1.4 تریلیون توکن آموزش دیده است که به داده های مورد استفاده برای آموزش هوش مصنوعی اشاره دارد.
شرکتهایی مانند OpenAI و Google بهطور عمومی معیارهای مشابهی را برای مدلهای زبان بزرگ رقیب خود فاش نکردهاند، اگرچه CNBC این هفته گزارش داد که مدل PalM 2 گوگل بر روی 3.6 تریلیون توکن آموزش دیده و حاوی 340 میلیارد پارامتر است.
برخلاف دیگر شرکتهای فناوری، متا مدل زبان LLaMA خود را در اختیار محققان قرار داد تا بتوانند از این فناوری بیاموزند. با این حال، مدل زبان LlaMA پس از آن به عموم مردم فاش شد، که منجر به ساخت اپلیکیشنهای بسیاری از توسعهدهندگان با استفاده از این فناوری شد.
رامانی گفت متا “هنوز در حال فکر کردن به همه همکاری های منبع باز ما است و مطمئناً می خواهم تکرار کنم که فلسفه ما هنوز علم باز و همکاری متقابل است.”
تماشا کردن: هوش مصنوعی محرک بزرگ احساسات برای فناوری های بزرگ است