NVIDIA NIM در استنتاج AWS Supercharges AI

NVIDIA NIM در استنتاج AWS Supercharges AI

NVIDIA NIM در استنتاج AWS Supercharges AI

هوش مصنوعی مولد به سرعت صنایع را متحول می‌کند و تقاضا برای راه‌حل‌های استنتاج ایمن و با کارایی بالا را برای مقیاس‌بندی مدل‌های پیچیده‌تر به‌طور کارآمد و مقرون‌به‌صرفه افزایش می‌دهد.

خدمات وب آمازون (AWS) با گسترش همکاری خود با NVIDIA، امروز در کنفرانس سالانه AWS re:Invent خود فاش کرد که ریزسرویس‌های NIM NVIDIA را در سراسر سرویس‌های هسته‌ای AWS AI گسترش داده است تا از استنتاج هوش مصنوعی سریع‌تر و با تأخیر کمتر برای برنامه‌های کاربردی هوش مصنوعی مولد پشتیبانی کند.

ریزسرویس‌های NIM NVIDIA اکنون مستقیماً از AWS Marketplace و همچنین Amazon Bedrock Marketplace و Amazon SageMaker JumpStart در دسترس هستند و توسعه استنتاج بهینه‌شده NVIDIA را برای مدل‌های پرکاربرد آسان‌تر می‌کند.

NVIDIA NIM، بخشی از پلت‌فرم نرم‌افزاری NVIDIA AI Enterprise که در بازار AWS موجود است، مجموعه‌ای از میکروسرویس‌های با کاربری آسان را در اختیار توسعه‌دهندگان قرار می‌دهد که برای استقرار ایمن و قابل اعتماد استنتاج مدل هوش مصنوعی کلاس سازمانی با کارایی بالا در میان ابرها و داده‌ها طراحی شده‌اند. مراکز و ایستگاه های کاری

این کانتینرهای از پیش ساخته شده بر روی موتورهای استنتاج قدرتمند، مانند NVIDIA Triton Inference Server، NVIDIA TensorRT، NVIDIA TensorRT-LLM، و PyTorch ساخته شده‌اند و از طیف گسترده‌ای از مدل‌های AI پشتیبانی می‌کنند – از مدل‌های جامعه منبع باز گرفته تا مدل‌های NVIDIA AI Foundation و مدل های سفارشی .

میکروسرویس‌های NIM می‌توانند در سرویس‌های مختلف AWS، از جمله Amazon Elastic Compute Cloud (EC2)، Amazon Elastic Kubernetes Service (EKS) و Amazon SageMaker مستقر شوند.

توسعه دهندگان می توانند پیش نمایش بیش از 100 میکروسرویس NIM ساخته شده از مدل ها و خانواده های مدل های رایج، از جمله Meta’s Llama 3، Mistral AI’s Mistral، Mixtral، NVIDIA’s Nemotron، Stability AI’s SDXL، و بسیاری دیگر را در کاتالوگ NVIDIA API مشاهده کنند. معمولاً مورد استفاده قرار می‌گیرند، آنها برای استقرار خود میزبان در سرویس‌های AWS در دسترس هستند و برای اجرا بر روی نمونه‌های محاسبه شتاب‌دهی NVIDIA در AWS بهینه‌سازی شده‌اند.

میکروسرویس های NIM که اکنون مستقیماً از AWS در دسترس هستند عبارتند از:

  • Nvidia Nemotron-4، در Amazon Bedrock Marketplace، Amazon SageMaker Jumpstart و AWS Marketplace موجود است. این نرم افزار پیشرفته LLM است که برای ایجاد داده های مصنوعی متنوع طراحی شده است که از نزدیک داده های دنیای واقعی را تقلید می کند و عملکرد و قدرت LLM های سفارشی را در سراسر دامنه ها افزایش می دهد.
  • لاما 3.1 8B-Guidance، در بازار AWS موجود است. این مدل زبانی بزرگ و چندزبانه با 8 میلیارد پارامتر برای درک زبان، استدلال و موارد استفاده از تولید متن از قبل آموزش دیده و تنظیم شده است.
  • لاما 3.1 70B-Guidance، در بازار AWS موجود است. این مدل از پیش آموزش‌دیده و تنظیم‌شده با دستورالعمل با ۷۰ میلیارد پارامتر برای گفتگوی چند زبانه بهینه شده است.
  • میکسترال دستورالعمل های 8x7B نسخه 0.1، در بازار AWS موجود است. این ترکیب پراکنده و با کیفیت بالا از الگوهای خبره با وزن‌های باز می‌تواند دستورالعمل‌ها را دنبال کند، سفارش‌ها را کامل کند و قالب‌های متن خلاقانه ایجاد کند.

NIM در AWS برای همه

مشتریان و شرکا در سراسر صنایع از NIM در AWS برای رسیدن سریعتر به بازار، حفظ امنیت و کنترل برنامه‌ها و داده‌های هوش مصنوعی و کاهش هزینه‌ها استفاده می‌کنند.

SoftServe، یک شرکت مشاوره فناوری اطلاعات و خدمات دیجیتال، شش راه حل مولد هوش مصنوعی را توسعه داده است که به طور کامل بر روی AWS مستقر شده و توسط خدمات NVIDIA NIM و AWS تسریع شده است. راه حل های موجود در بازار AWS عبارتند از SoftServe Gen AI Drug Discovery، SoftServe Gen AI Industrial Assistant، Digital Concierge، RAG Multimedia Platform، Content Creator و Speech Recognition Platform.

همه آنها بر اساس NVIDIA AI Blueprints هستند، گردش کار مرجع جامعی که توسعه و استقرار برنامه های کاربردی هوش مصنوعی را تسریع می بخشد و دارای کتابخانه های شتاب دهنده NVIDIA، SDK، میکروسرویس های NIM برای عوامل هوش مصنوعی، دوقلوهای دیجیتال و موارد دیگر است.

اکنون با NIM در AWS شروع کنید

توسعه دهندگان می توانند میکروسرویس های NVIDIA NIM را بر اساس نیازها و نیازهای منحصر به فرد خود بر روی AWS مستقر کنند. با انجام این کار، توسعه‌دهندگان و سازمان‌ها می‌توانند با استفاده از محفظه‌های استنتاج بهینه‌شده NVIDIA در سرویس‌های مختلف AWS به هوش مصنوعی با کارایی بالا دست یابند.

از کاتالوگ NVIDIA API دیدن کنید تا بیش از 100 مدل مختلف بهینه‌سازی شده برای NIM را امتحان کنید و برای شروع استقرار میکروسرویس‌ها در سرویس‌های AWS، مجوز توسعه‌دهنده یا مجوز آزمایشی 90 روزه NVIDIA AI Enterprise را درخواست کنید. توسعه دهندگان همچنین می توانند میکروسرویس های NIM را در بازار AWS، Amazon Bedrock Marketplace، یا Amazon SageMaker JumpStart کاوش کنند.

ببینید متوجه می شود در مورد اطلاعات محصولات نرم افزاری.

منبع: https://blogs.nvidia.com/blog/nim-microservices-aws-inference/

تحریریه تی 20 بازی

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *