,

نیازمندی های سخت افزاری برای اجرای مدل زبانی بزرگ (LLM)

پیش تر در خصوص مدل های زبانی بزرگ توضیح داده شده است. چنانچه با این مدل ها آشنا نیستید ابتدا آن را مطالعه کنید.

کارت گرافیک GPU

GPU مهم‌ترین قطعه سخت‌افزار هنگام اجرای مدل های زبانی بزرگ می باشد. عملکرد GPU ها تأثیر مستقیمی بر سرعت اجرای این مدل ها خواهد داشت.

پیاده سازی های مختلف از یک مدل زبانی بزرگ نیاز به سخت افزار های متفاوتی دارند. در جدول زیر مشخصات سخت افزارهای مورد نیاز برای مدل های مختلف ارائه گردیده است.

 

الزامات GPU برای مدل های LLaMA کوانتیزه شده 4 بیتی

اندازه مدل زبانی بزرگ (LLM)حداقل حافظه GPUGPU های پیشنهادی
7B6GBRTX 3060, AMD 5700 XT
13B10GBAMD 6900 XT, RTX 2060 12GB, 3060 12GB, 3080, A2000
30B20GBRTX A5000, RTX 3090, RTX 4090, RTX 6000, Tesla V100
65B40GBA100 40GB, 2x RTX 3090, 2x RTX 4090, A40, RTX A6000, RTX A8000

پردازنده مرکزی (CPU)

علاوه بر GPU، شما همچنین به یک CPU نیاز دارید که بتواند از GPU پشتیبانی کند و کارهای دیگری مانند بارگذاری داده ها و پیش پردازش را انجام دهد. نیاز به CPU برای مدل مبتنی بر GPU کمتر از مدلی است که برای CPU بهینه شده است.

پردازنده های خوب برای LLaMA برروی سرور از جمله Intel Xeon 6248R (24-core, 3.0GHz)  یا AMD Epyc 9454 (48-core, 2.75GHz) استفاده کنید.

فرکانس بالا /  تعداد هسته پایینمتعادلفرکانس پایین / تعداد هسته بالا
Intel

Intel Xeon 6250

(8-core, 3.90GHz)

Intel Xeon 6248R

(24-core 3.0GHz)

Intel Xeon 6258R

(28-core 2.70GHz)

AMD

AMD Epyc 9174F

(16-core 4.10GHz)

AMD Epyc 9454

(48-core 2.75GHz)

AMD Epyc 9754

(128-core 2.25GHz)

انتخاب پردازنده مرکز (CPU) بر اساس نیاز پیش و پس پردازش می باشد. فرض بر این است اجرای مدل های زبانی بزرگ بر روی GPU انجام می گردد

حافظه اصلی

علاوه بر GPU و CPU، شما همچنین به حافظه (RAM) کافی و فضای ذخیره سازی برای ذخیره پارامترها و داده های مدل نیاز دارید. حداقل رم مورد نیاز برای یک مدل LLaMA-30B 4-بیتی، 32 گیگابایت است که می تواند کل مدل را بدون جابجایی روی دیسک در حافظه نگه دارد. با این حال، برای مجموعه داده های بزرگتر یا متون طولانی تر، ممکن است بخواهید از حافظه بیشتری مانند 64 گیگابایت یا 128 گیگابایت استفاده کنید.

اندازه مدل زبانی بزرگ (LLM)اندازه واقعیQuantized size (4-bit)Quantized size (5-bit)Quantized size (8-bit)
7B13GB3.9-7.5GB7.5-8.5GB8.5-10.0GB
13B24GB7.8-11GB11.5-13.5GB13.5-17.5GB
30B60GB19.5-23GB23.5-27.5GB28.5-38.5GB
65B120GB38.5-47.7GB47.0-52.0GB71.0-80.0GB

ذخیره سازی

حداقل فضای ذخیره سازی مورد نیاز برای LLaMA 1 ترابایت NVMe SSD است که می تواند فایل های مدل و فایل های داده را با سرعت خواندن و نوشتن سریع ذخیره کند. با این حال، برای اطلاعات بیشتر یا اهداف پشتیبان، ممکن است بخواهید از فضای ذخیره سازی بیشتری مانند 2 ترابایت یا 4 ترابایت SSD استفاده کنید.

ذخیره سازی با سرعت بالا را انتخاب کنید. یک SSD PCIe 4.0 NVMe با سرعت‌های متوالی عالی را انتخاب کنید تا انتقال سریع داده بین فضای ذخیره‌سازی و رم سیستم را تسهیل کنید.

منبع تغذیه و کیس

روی یک منبع تغذیه با کیفیت بالا با ظرفیت کافی برای تامین برق همه اجزا سرمایه گذاری کنید. یک کیس جادار با جریان هوای خوب برای حرارت مطلوب انتخاب کنید.

سرور مخصوص مدل های هوش مصنوعی میتوان سرور های زیر را معرفی کرد

 

سرور 8-GPU و سرور 4-GPU

0 پاسخ

دیدگاه خود را ثبت کنید

تمایل دارید در گفتگوها شرکت کنید؟
در گفتگو ها شرکت کنید.

دیدگاهتان را بنویسید