بزرگترین تراشه هوش مصنوعی جهان با ۴ تریلیون ترانزیستور رونمایی شد
به گزارش «نبض فناوری»، اینترستینگ اینجینرینگ اعلام کرد، شرکت «سربراس سیستمز» (Cerebras Systems) مستقر در کالیفرنیا از «ویفر اسکیل انجین» (Wafer Scale Engine) یا به اختصار (WSE-۳)، جدیدترین تراشه هوش مصنوعی خود با ۴ تریلیون ترانزیستور رونمایی کرد.
این تراشه دو برابر عملکرد قبلی خود یعنی سربراس «دبیلیو اس ای-۲» (Cerebras WSE-۲) را ارائه میدهد که قبلاً رکورد سریعترین تراشه را در اختیار داشت. در بیانیه مطبوعاتی این شرکت آمده است که سیستمهای ساخته شده با استفاده از «دبیلیو اس ای-۳» قادر خواهند بود مدلها را با ۷۰ میلیارد پارامتر فقط در یک روز تنظیم کنند.
مدلهای هوش مصنوعی مانند جی پیتی با قابلیتهای بیشمار خود، دنیا را غرق کردهاند. با این حال، شرکتهای فناوری میدانند که مدلهای هوش مصنوعی هنوز در مراحل ابتدایی هستند و برای ایجاد اختلال در بازار نیاز به توسعه بیشتری دارند.
برای انجام این کار، مدلهای هوش مصنوعی باید روی مجموعه دادههای بزرگتری آموزش ببینند که به زیرساختهای بزرگتری نیاز دارند. انویدیا، سازنده تراشه، به لطف تقاضا برای تراشههای جدیدتر، بزرگتر و قدرتمندتر، به اوج خود رسیده است. تراشه H ۲۰۰ آن برای آموزش مدلهای هوش مصنوعی استفاده میشود و ۸۰ میلیارد ترانزیستور دارد. با این حال، سربراس «دبیلیو اس ای-۳» قصد دارد عملکرد را تا ۵۷ برابر افزایش دهد.
نگاهی به مشخصات ابررایانه هوش مصنوعی سربراس
«دبیلیو اس ای-۳» از معماری ۵ نانومتری استفاده میکند که برای ارائه ۹۰۰ هزار هسته بهینه شده و پردازش دادههای هوش مصنوعی در هنگام استفاده در «سی اس-۳» (CS-۳)، ابررایانه هوش مصنوعی این شرکت، طراحی شده است. این ابررایانه دارای یک حافظه ایستا (SRAM) روی تراشه ۴۴ گیگابایتی است. این میتواند ۲۴ تریلیون پارامتر را در یک فضای حافظه منطقی بدون طبقهبندی یا شکست آنها ذخیره کند. در بیانیه مطبوعاتی آمده است که این هدف برای ساده کردن چشمگیر گردش کار آموزشی و بهبود بهرهوری توسعهدهنده است.
حافظه خارجی ابررایانه «سی اس-۳» را میتوان از ۱.۵ ترابایت، بسته به نیاز مدل هوش مصنوعی در حال آموزش به ۱.۲ پتابایت افزایش داد. این کار برای آموزش مدلهایی ده برابر بزرگتر از جیپیتی-۴ یا جمنای انجام میشود. این شرکت ادعا میکند که آموزش مدل یک تریلیون پارامتری در «سی اس-۳» به سادگی آموزش یک مدل یک میلیارد پارامتری بر روی پردازندههای گرافیکی است.
در صورت لزوم، «سی اس-۳» را میتوان برای نیازهای سازمانی یا مقیاس بزرگ ساخت. در یک پیکربندی چهار سیستمی، «سی اس-۳» میتواند مدلهای هوش مصنوعی متشکل از ۷۰ میلیارد پارامتر روزانه را به خوبی تنظیم کند. هنگامی که در پیکربندی سیستم ۲۰۴۸ راه اندازی شود، میتواند مدل ۷۰ میلیارد پارامتری لاما را در یک روز از ابتدا آموزش دهد.
بزرگترین تراشه هوش مصنوعی دنیا در کجا استفاده میشود؟
در زمانی که مصرف انرژی پردازندههای گرافیکی با هر نسل جدید دو برابر میشود، سربراس تضمین کرده است که آخرین تراشههایش بدون افزایش اندازه یا مصرف انرژی عملکردی دو برابری داشته باشند.
تراشه مخصوص هوش مصنوعی همچنین در مقایسه با پردازندههای گرافیکی به ۹۷ درصد کد کمتری برای آموزش مدلهای زبان بزرگ (LLM) نیاز دارد. به عنوان مثال، اجرای استاندارد یک مدل مانند جیپیتی-۳ تنها با ۵۶۵ خط کد به دست آمد.
سربراس قصد دارد «دبیلیو اس ای-۲» را در تاسیسات همکاران قدیمی خود، آزمایشگاه ملی آرگون و کلینیک مایو، مستقر کند تا تواناییهای تحقیقاتی این موسسات را افزایش دهد.
منبع/ آنا