همه‌ی نوشته‌های Jesse Clayton

شناسایی میکروسرویس های NIM و نمودارهای هوش مصنوعی

شناسایی میکروسرویس های NIM و نمودارهای هوش مصنوعی

در طول سال گذشته، هوش مصنوعی شیوه زندگی، کار و بازی مردم را تغییر داده است و همه چیز را از نوشتن و تولید محتوا گرفته تا بازی، یادگیری و بهره‌وری را بهبود بخشیده است. علاقه مندان به کامپیوتر و توسعه دهندگان تلاش می کنند تا مرزهای این فناوری پیشگامانه را پیش ببرند.

بارها، پیشرفت‌های تکنولوژیکی تعریف‌کننده صنعت در یک مکان – گاراژ – اختراع شده‌اند. این هفته شروع است گاراژ RTX AI این مجموعه، محتوای معمولی را برای توسعه دهندگان و علاقه مندانی که به دنبال کسب اطلاعات بیشتر در مورد میکروسرویس های NVIDIA NIM و نقشه های هوش مصنوعی، نحوه ساخت عوامل هوش مصنوعی، گردش کار خلاق، انسان های دیجیتال، برنامه های کاربردی بهره وری و موارد دیگر در رایانه های شخصی هوش مصنوعی هستند، ارائه می دهد. خوش آمدید به گاراژ RTX AI.

این قسمت اول اعلامیه‌هایی را که در اوایل این هفته در CES منتشر شد، شامل مدل‌های پایه هوش مصنوعی جدید موجود در رایانه‌های شخصی NVIDIA RTX AI است که انسان‌های دیجیتال، تولید محتوا، بهره‌وری و توسعه را به سطح بعدی می‌برد.

این مدل‌ها – که به‌عنوان ریزسرویس NVIDIA NIM ارائه می‌شوند – از پردازنده‌های گرافیکی جدید سری GeForce RTX 50 پشتیبانی می‌کنند. پردازنده‌های گرافیکی سری RTX 50 که بر اساس معماری NVIDIA Blackwell ساخته شده‌اند، تا 3.352 تریلیون عملیات هوش مصنوعی در هر ثانیه عملکرد، 32 گیگابایت VRAM و ویژگی محاسبات FP4 را ارائه می‌دهند، عملکرد استنتاج هوش مصنوعی را دوبرابر می‌کنند و هوش مصنوعی مولد را قادر می‌سازند به صورت بومی با ردپای حافظه کمتر اجرا شود.

NVIDIA همچنین NVIDIA AI Blueprints را معرفی کرد – گردش کار آماده و از پیش پیکربندی شده، ساخته شده بر روی میکروسرویس های NIM، برای برنامه هایی مانند انسان دیجیتال و ایجاد محتوا.

ریزسرویس‌های NIM و نقشه‌های هوش مصنوعی علاقه‌مندان و توسعه‌دهندگان را قادر می‌سازد تا سریع‌تر از همیشه تجربیات مبتنی بر هوش مصنوعی را ایجاد، تکرار و به رایانه شخصی ارائه دهند. نتیجه موج جدیدی از قابلیت های عملی و قانع کننده برای کاربران رایانه شخصی است.

رهگیری سریع هوش مصنوعی با NVIDIA NIM

دو چالش اصلی برای آوردن پیشرفت های هوش مصنوعی به رایانه ها وجود دارد. اولاً، سرعت تحقیقات هوش مصنوعی بسیار سریع است و مدل‌های جدید روزانه در پلتفرم‌هایی مانند Hugging Face که اکنون میزبان بیش از یک میلیون مدل است، ظاهر می‌شوند. در نتیجه، هک ها به سرعت قدیمی می شوند.

دوم، تطبیق این مدل‌ها برای استفاده از رایانه، فرآیندی پیچیده و نیازمند منابع است. بهینه سازی آنها برای رایانه ها، ادغام آنها با نرم افزار هوش مصنوعی و اتصال آنها به برنامه ها به تلاش مهندسی قابل توجهی نیاز دارد.

NVIDIA NIM با ارائه مدل‌های پیشرفته هوش مصنوعی که برای رایانه‌های شخصی از پیش پیکربندی و بهینه‌سازی شده‌اند، به رفع این چالش‌ها کمک می‌کند. این میکروسرویس‌های NIM دامنه‌های معمولی را در بر می‌گیرند، می‌توانند با یک کلیک نصب شوند، دارای API برای ادغام آسان هستند و از نرم‌افزار NVIDIA AI و GPU‌های RTX برای تسریع عملکرد استفاده می‌کنند.

در CES، انویدیا خط لوله‌ای از میکروسرویس‌های NIM را برای رایانه‌های RTX AI اعلام کرد که از موارد استفاده شامل مدل‌های زبان بزرگ (LLM)، مدل‌های زبان بینایی، تولید تصویر، گفتار، بازیابی نسل افزوده (RAG)، استخراج PDF و بینایی رایانه پشتیبانی می‌کند.

مدل های باز خانواده جدید Llama Nemotron دقت بالایی را در طیف وسیعی از وظایف پروکسی ارائه می دهد. نمونه اولیه Llama Nemotron Nano که به عنوان یک میکروسرویس NIM برای رایانه‌های شخصی و ایستگاه‌های کاری هوش مصنوعی RTX ارائه می‌شود، در وظایف هوش مصنوعی مانند دنبال کردن دستورالعمل‌ها، توابع فراخوانی، چت، کدنویسی و ریاضیات برتری دارد.

به زودی، توسعه دهندگان می توانند به سرعت این میکروسرویس ها را با استفاده از زیرسیستم ویندوز برای لینوکس (WSL) روی رایانه های شخصی ویندوز 11 دانلود و اجرا کنند.

برای نشان دادن اینکه چگونه علاقه مندان و توسعه دهندگان می توانند از NIM برای ساخت عوامل و دستیارهای هوش مصنوعی استفاده کنند، انویدیا Project R2X را پیش نمایش کرد، یک آواتار رایانه شخصی با قابلیت بینایی که می تواند اطلاعات را در دسترس کاربر قرار دهد، به برنامه های دسکتاپ و تماس های ویدیویی گروهی کمک کند، و اسناد را بخواند و خلاصه کند. . و بیشتر. برای به روز رسانی پروژه R2X ثبت نام کنید.

با میکروسرویس‌های NIM، علاقه‌مندان به هوش مصنوعی می‌توانند از پیچیدگی‌های سازمان‌دهی مدل، بهینه‌سازی و یکپارچه‌سازی باطن بگذرند و بر ساخت و نوآوری با مدل‌های پیشرفته هوش مصنوعی تمرکز کنند.

در API چیست؟

رابط برنامه نویسی برنامه (Application Programming Interface) یا API راهی است که یک برنامه کاربردی با کتابخانه نرم افزار ارتباط برقرار می کند. یک API مجموعه‌ای از «تماس‌ها» را تعریف می‌کند که یک برنامه می‌تواند با یک کتابخانه برقرار کند و برنامه در ازای آن چه انتظاری دارد. APIهای AI سنتی به تنظیمات و پیکربندی زیادی نیاز دارند، که استفاده از قابلیت‌های هوش مصنوعی را دشوارتر می‌کند و مانع از نوآوری می‌شود.

میکروسرویس‌های NIM، رابط‌های برنامه‌نویسی کاربردی (API) با کاربرد آسان را در معرض دید قرار می‌دهند که یک برنامه به سادگی می‌تواند درخواست‌ها را ارسال کند و پاسخ دریافت کند. علاوه بر این، به طور ویژه برای رسانه های ورودی و خروجی انواع مدل های مختلف طراحی شده است. به عنوان مثال، LLM متن را به عنوان ورودی می گیرد و متن را به عنوان خروجی تولید می کند، مولدهای تصویر متن را به تصویر تبدیل می کنند، تشخیص دهنده های گفتار، گفتار را به متن و غیره.

میکروسرویس‌ها برای ادغام یکپارچه با چارچوب‌های توسعه هوش مصنوعی و چارچوب‌های عاملی مانند AI Toolkit برای VSCode، AnythingLLM، ComfyUI، Flowise AI، LangChain، Langflow، و LM Studio طراحی شده‌اند. توسعه دهندگان می توانند به راحتی آنها را از build.nvidia.com دانلود و اجرا کنند.

NVIDIA NIM با آوردن این APIها به RTX، نوآوری هوش مصنوعی را در رایانه‌های شخصی سرعت می‌بخشد.

انتظار می رود که علاقه مندان بتوانند طیف وسیعی از میکروسرویس های NIM را با استفاده از نسخه آزمایشی فنی NVIDIA ChatRTX امتحان کنند.

طرحی برای نوآوری

با استفاده از جدیدترین مدل های از پیش ساخته شده و بهینه سازی شده برای رایانه، توسعه دهندگان و علاقه مندان می توانند به سرعت پروژه های مبتنی بر هوش مصنوعی ایجاد کنند. برای برداشتن یک قدم جلوتر، می‌تواند چندین مدل هوش مصنوعی را با عملکردهای دیگر ترکیب کند تا برنامه‌های پیچیده‌ای مانند انسان دیجیتال، تولیدکننده پادکست و دستیار برنامه ایجاد کند.

NVIDIA AI Blueprints، ساخته شده بر روی میکروسرویس های NIM، به عنوان پیاده سازی مرجع برای گردش های کاری پیچیده هوش مصنوعی عمل می کند. این به توسعه دهندگان کمک می کند بسیاری از مؤلفه ها، از جمله کتابخانه ها، SDK ها و مدل های هوش مصنوعی را در یک برنامه واحد به یکدیگر متصل کنند.

AI Blueprints شامل همه چیزهایی است که یک توسعه‌دهنده برای ایجاد، اجرا، سفارشی‌سازی و گسترش گردش کار مرجع نیاز دارد، که شامل برنامه مرجع، کد منبع، داده‌های نمونه و اسناد برای سفارشی‌سازی و هماهنگ‌سازی اجزای مختلف است.

در نمایشگاه CES، انویدیا دو طرح هوش مصنوعی را برای RTX اعلام کرد: یکی برای پادکست PDF، که به کاربران امکان می‌دهد از هر فایل PDF یک پادکست بسازند و دیگری برای هوش مصنوعی مولد با هدایت سه بعدی، که مبتنی بر FLUX.1 (dev) است و انتظار می‌رود به عنوان یک میکروسرویس از NIM ارائه می شود، کنترل بیشتری بر روی ایجاد تصاویر مبتنی بر متن در اختیار هنرمندان قرار می دهد.

با AI Blueprints، توسعه‌دهندگان می‌توانند به سرعت از آزمایش هوش مصنوعی به توسعه هوش مصنوعی برای گردش‌های کاری پیشرفته در رایانه‌های شخصی و ایستگاه‌های کاری RTX حرکت کنند.

طراحی شده برای هوش مصنوعی مولد

پردازنده‌های گرافیکی سری جدید GeForce RTX 50 که به طور خاص برای مقابله با چالش‌های پیچیده هوش مصنوعی طراحی شده‌اند، دارای هسته‌های Tensor نسل پنجم با پشتیبانی از FP4، حافظه G7 سریع‌تر، و یک پردازنده مدیریت هوش مصنوعی برای چندوظیفگی کارآمد بین هوش مصنوعی و جریان‌های کاری خلاقانه هستند.

سری GeForce RTX 50 برای کمک به ارائه عملکرد بهتر و عملکرد بیشتر رایانه شخصی، پشتیبانی از FP4 را اضافه می کند. FP4 یک روش کوانتیزاسیون پایین تر است، شبیه به فشرده سازی فایل، که اندازه مدل را کاهش می دهد. در مقایسه با FP16 – حالت پیش‌فرض اکثر مدل‌ها – FP4 از کمتر از نیمی از حافظه استفاده می‌کند و پردازنده‌های گرافیکی سری 50 عملکردی بیش از دو برابر نسل قبلی دارند. این کار را می توان تقریباً بدون افت کیفیت با استفاده از روش های مقیاس بندی پیشرفته ارائه شده توسط NVIDIA TensorRT Model Optimizer انجام داد.

برای مثال، مدل FLUX.1 (dev) Black Forest Labs در FP16 به بیش از 23 گیگابایت VRAM نیاز دارد، به این معنی که فقط توسط GeForce RTX 4090 و GPU های حرفه ای قابل پشتیبانی است. با FP4، FLUX.1 (dev) به کمتر از 10 گیگابایت نیاز دارد، بنابراین می‌تواند به صورت بومی روی پردازنده‌های گرافیکی GeForce RTX بیشتری اجرا شود.

با استفاده از GeForce RTX 4090 با FP16، مدل FLUX.1 (dev) می تواند تصاویر را در 15 ثانیه با 30 مرحله تولید کند. با استفاده از GeForce RTX 5090 با FP4، می توان تصاویر را در کمتر از پنج ثانیه ایجاد کرد.

با API های جدید هوش مصنوعی برای رایانه ها شروع کنید

انتظار می‌رود که ریزسرویس‌های NIM و طرح‌های هوش مصنوعی NVIDIA از ماه آینده با پشتیبانی سخت‌افزاری اولیه برای سری‌های GeForce RTX 50، GeForce RTX 4090 و 4080 و NVIDIA RTX 6000 و 5000 پردازنده‌های گرافیکی حرفه‌ای در دسترس قرار گیرند. GPU های اضافی در آینده پشتیبانی خواهند شد.

انتظار می رود رایانه های شخصی RTX AI آماده NIM از Acer، ASUS، Dell، GIGABYTE، HP، Lenovo، MSI، Razer، و Samsung و سازندگان سیستم محلی Corsair، Falcon Northwest، LDLC، Maingear، Mifcon، Origin PC در دسترس باشند. PCS و اسکن.

پردازنده‌های گرافیکی و لپ‌تاپ‌های سری GeForce RTX 50 عملکردی را ارائه می‌دهند که بازی را تغییر می‌دهد، تجربه‌های هوش مصنوعی متحول کننده را تقویت می‌کند و سازندگان را قادر می‌سازد تا گردش‌های کاری را در زمان بی‌سابقه انجام دهند. برای کسب اطلاعات بیشتر در مورد اخبار هوش مصنوعی NVIDIA که در CES فاش شد، سخنرانی اصلی جنسن هوانگ، مدیر عامل NVIDIA را دوباره تماشا کنید.

ببینید متوجه می شود در مورد اطلاعات محصولات نرم افزاری.

منبع: https://blogs.nvidia.com/blog/rtx-ai-garage-ces-pc-nim-blueprints/

نتیجه گیری از تحولات حوزه هوش مصنوعی در سال جاری

یادداشت سردبیر: این پست بخشی از سری رمزگشایی هوش مصنوعیکه هوش مصنوعی را با در دسترس‌تر کردن فناوری، نمایش سخت‌افزار، نرم‌افزار، ابزار و شتاب‌دهنده‌های جدید برای کاربران رایانه‌های شخصی GeForce RTX و NVIDIA RTX، از بین می‌برد.

در طول سال گذشته، سری AI ​​Decoded همه چیزهای هوش مصنوعی را تجزیه کرده است – از ساده کردن پیچیدگی‌های مدل‌های زبان بزرگ (LLM) تا برجسته کردن قدرت رایانه‌ها و ایستگاه‌های کاری با هوش مصنوعی RTX.

با جمع‌بندی آخرین پیشرفت‌های هوش مصنوعی، این تور نشان می‌دهد که چگونه فناوری نحوه نوشتن، بازی، یادگیری و برقراری ارتباط آنلاین افراد با یکدیگر را تغییر داده است.

پردازنده‌های گرافیکی NVIDIA GeForce RTX قدرت ارائه این تجربه‌ها را در لپ‌تاپ، دسک‌تاپ و ایستگاه‌های کاری فراهم می‌کنند. دارای هسته های تخصصی Tensor Core است که می تواند بیش از 1300 تریلیون عملیات در ثانیه (TOPS) قدرت پردازشی را برای عملکرد پیشرفته در بازی، خلاقیت، بهره وری روزمره و موارد دیگر ارائه دهد. برای ایستگاه های کاری، پردازنده های گرافیکی NVIDIA RTX بیش از 1400 TOPS را ارائه می دهند که شتاب و کارایی هوش مصنوعی سطح بعدی را ممکن می کند.

بهره وری و خلاقیت را با چت ربات های مجهز به هوش مصنوعی آزاد کنید

AI رمزگشایی شده در اوایل سال جاری به بررسی چیستی MBA، چرایی اهمیت آن و نحوه استفاده از آن پرداخت.

برای بسیاری، ابزارهایی مانند ChatGPT اولین معرفی آنها برای هوش مصنوعی بود. چت ربات‌های مبتنی بر LLM، محاسبات را از تعاملات مبتنی بر قانون اساسی به مکالمات پویا تبدیل کرده‌اند. آنها می توانند ایده های تعطیلات را پیشنهاد دهند، ایمیل های خدمات مشتری بنویسند، شعر اصلی بنویسند و حتی برای کاربران کد بنویسند.

ChatRTX که در ماه مارس معرفی شد، یک برنامه بتا است که به کاربران امکان می دهد GPT LLM را با محتوای خود، مانند اسناد، یادداشت ها و تصاویر سفارشی کنند.

ChatRTX با ویژگی هایی مانند Retrieval Augmented Generation (RAG)، NVIDIA TensorRT-LLM و شتاب RTX، به کاربران اجازه می دهد تا به سرعت در مورد داده های خود جستجو کرده و سؤال بپرسند. از آنجایی که برنامه به صورت محلی روی رایانه های شخصی یا ایستگاه های کاری RTX اجرا می شود، نتایج سریع و خصوصی هستند.

NVIDIA بزرگترین انتخاب مدل های اصلی را برای علاقه مندان و توسعه دهندگان ارائه می دهد، از جمله Gemma 2، Mistral و Llama-3. این مدل‌ها می‌توانند به صورت محلی روی پردازنده‌های گرافیکی NVIDIA GeForce و RTX برای عملکرد سریع و ایمن بدون اتکا به خدمات ابری اجرا شوند.

امروز ChatRTX را دانلود کنید.

معرفی RTX-Accelerated Partner Applications

هوش مصنوعی در حال ادغام بیشتر و بیشتر برنامه ها و موارد استفاده از جمله بازی ها، برنامه های ایجاد محتوا، توسعه نرم افزار و ابزارهای بهره وری است.

این گسترش توسط طیف گسترده‌ای از ابزارهای توسعه و جامعه با شتاب RTX، SDK، مدل‌ها و چارچوب‌ها تقویت می‌شود که اجرای مدل‌ها را به صورت بومی در برنامه‌های محبوب آسان‌تر از همیشه می‌کند.

AI رمزگشایی شده در اکتبر نشان داد که چگونه هوش مصنوعی Leo مرورگر Brave که توسط پردازنده‌های گرافیکی NVIDIA RTX و پلتفرم منبع باز Ollama پشتیبانی می‌شود، به کاربران این امکان را می‌دهد تا LLM‌های بومی مانند Llama 3 را مستقیماً روی رایانه‌های شخصی یا ایستگاه‌های کاری RTX خود اجرا کنند.

این راه‌اندازی در محل عملکرد هوش مصنوعی سریع و پاسخگو را ارائه می‌کند و در عین حال داده‌های کاربر را خصوصی نگه می‌دارد – بدون اتکا به ابر. پیشرفت‌های NVIDIA در ابزارهایی مانند Ollama عملکرد سریعی را برای کارهایی مانند خلاصه کردن مقاله‌ها، پاسخ دادن به سؤالات، و استخراج بینش ارائه می‌کنند که همگی مستقیماً در مرورگر Brave هستند. کاربران می‌توانند بین مدل‌های داخلی و ابری جابه‌جا شوند و انعطاف‌پذیری و کنترل تجربه هوش مصنوعی خود را فراهم کنند.

برای دستورالعمل های ساده در مورد نحوه افزودن پشتیبانی محلی LLM از طریق Ollama، وبلاگ Brave را بخوانید. هنگامی که Leo AI برای اشاره به Olama پیکربندی شد، از نرم افزار LLM میزبانی محلی برای ادعاها و پرس و جوها استفاده می کند.

عامل هوش مصنوعی – امکان حل مشکلات پیچیده را فراهم می کند

هوش مصنوعی عاملی مرز بعدی هوش مصنوعی است که می تواند از استدلال پیچیده و برنامه ریزی تکراری برای حل مستقل مسائل پیچیده و چند مرحله ای استفاده کند.

AI Decoded بررسی کرد که چگونه جامعه هوش مصنوعی در حال آزمایش فناوری برای ایجاد سیستم‌های هوش مصنوعی هوشمندتر و توانمندتر است.

برنامه‌های شریک مانند AnythingLLM نشان می‌دهند که چگونه هوش مصنوعی فراتر از پاسخ دادن به سؤالات و بهبود بهره‌وری و خلاقیت است. کاربران می توانند از برنامه برای استقرار عوامل جاسازی شده استفاده کنند که می توانند کارهایی مانند جستجو در وب یا برنامه ریزی جلسات را انجام دهند.

نتیجه گیری از تحولات حوزه هوش مصنوعی در سال جاری
مثالی از یک کاربر که با یک عامل هوش مصنوعی در AnythingLLM تماس می گیرد تا یک جستجوی وب را تکمیل کند.

AnythingLLM به کاربران این امکان را می دهد که از طریق رابط های بصری با اسناد تعامل داشته باشند، کارهای پیچیده را با استفاده از عوامل هوش مصنوعی خودکار کنند و LLM های پیشرفته را به صورت محلی اجرا کنند. با استفاده از قدرت پردازنده‌های گرافیکی RTX، جریان‌های کاری هوش مصنوعی سریع‌تر، هوشمندانه‌تر و پاسخگوتر را ارائه می‌کند – همه در یک برنامه دسکتاپ بومی. این برنامه همچنین به صورت آفلاین کار می کند، سریع و خصوصی است و می تواند از داده ها و ابزارهای محلی استفاده کند که معمولاً با راه حل های مبتنی بر ابر قابل دسترسی نیستند.

مرکز انجمن AnythingLLM به هر کسی دسترسی آسانی به اعلان‌های سیستم می‌دهد که می‌تواند به آنها در هدایت رفتار LLM، کشف دستورات اسلش افزایش بهره‌وری، و ایجاد مهارت‌های تخصصی عامل هوش مصنوعی برای گردش‌های کاری منحصربه‌فرد و ابزارهای سفارشی کمک کند.

AnythingLLM با امکان دادن به کاربران برای اجرای گردش‌های کاری هوش مصنوعی بر روی سیستم‌های خود با حفظ حریم خصوصی کامل، نوآوری را تقویت می‌کند و آزمایش با آخرین فناوری‌ها را آسان‌تر می‌کند.

با رمزگشایی هوش مصنوعی پیچیده شده است

امروزه بیش از 600 برنامه و بازی ویندوز به صورت بومی هوش مصنوعی را بر روی بیش از 100 میلیون رایانه شخصی GeForce RTX AI و ایستگاه های کاری در سراسر جهان اجرا می کنند و عملکرد سریع، قابل اعتماد و کم تاخیر را ارائه می دهند. درباره رایانه های شخصی NVIDIA GeForce RTX AI و ایستگاه های کاری NVIDIA RTX AI بیشتر بدانید.

با سخنرانی جنسن هوانگ بنیانگذار و مدیر عامل NVIDIA در CES در 6 ژانویه همراه باشید تا بفهمید چگونه جدیدترین هوش مصنوعی به بازی، تولید محتوا و توسعه نیرو می دهد.

هوش مصنوعی مولد بازی، کنفرانس ویدئویی و تجربیات تعاملی از همه نوع را متحول می کند. با مشترک شدن، چیزهای جدید و آینده را درک کنید خبر رمزگشایی شده توسط هوش مصنوعی.

منبع: https://blogs.nvidia.com/blog/ai-decoded-recap-ai-pc-rtx-ai/

رایانه های شخصی RTX AI خلاقیت، بازی و موارد دیگر را افزایش می دهند

یادداشت سردبیر: این پست بخشی از سری رمزگشایی هوش مصنوعیکه با در دسترس‌تر کردن فناوری، سخت‌افزار، نرم‌افزار، ابزار و شتاب‌دهنده‌های جدید را برای کاربران GeForce RTX و NVIDIA RTX PC به نمایش می‌گذارد.

پردازنده‌های گرافیکی NVIDIA و GeForce RTX برای عصر هوش مصنوعی طراحی شده‌اند.

پردازنده‌های گرافیکی RTX دارای هسته‌های Tensor تخصصی هستند که می‌توانند بیش از 1300 تریلیون عملیات در ثانیه (TOPS) قدرت پردازشی را برای عملکرد پیشرفته در بازی، خلاقیت، بهره‌وری روزمره و موارد دیگر ارائه دهند. امروزه بیش از 600 بازی و برنامه محبوب مبتنی بر هوش مصنوعی وجود دارد که توسط RTX تسریع شده است.

رایانه های شخصی RTX AI می توانند به هر کسی کمک کنند تا سفر هوش مصنوعی خود را شروع کرده و کار خود را پیش ببرند.

هر رایانه شخصی RTX AI با درایورهای استودیو NVIDIA به‌روزرسانی‌شده به‌طور منظم ارائه می‌شود – که با همکاری توسعه‌دهندگان به‌خوبی تنظیم شده‌اند – که عملکرد را در بهترین برنامه‌های خلاقانه بهینه می‌کنند و برای ارائه حداکثر پایداری به طور گسترده آزمایش می‌شوند. همین امروز درایور دسامبر استودیو را دانلود کنید.

اهمیت مدل های زبان بزرگ (LLM) همچنان در حال رشد است. این هفته دو معیار برای برجسته کردن عملکرد LLM در دستگاه‌های مختلف ارائه شد: MLPerf Client v0.5 و Procyon AI Text Generation. اجرای این معیارهای مبتنی بر LLM آسان است و آزمایش‌های داخلی نشان داده‌اند که عملکرد دنیای واقعی را دقیقاً تقلید می‌کنند.

در این فصل تعطیلات، سازندگان می‌توانند در #WinterArtChallenge که تا فوریه ادامه دارد، شرکت کنند. آثار هنری با تم زمستانی خود را در فیس بوک، اینستاگرام یا X با #WinterArtChallenge به اشتراک بگذارید تا فرصتی برای نمایش در کانال های رسانه های اجتماعی استودیو NVIDIA داشته باشید.

هوش مصنوعی پیشرفته

با پردازنده‌های گرافیکی NVIDIA و GeForce RTX، هوش مصنوعی وظایف و فعالیت‌های روزمره را ارتقا می‌دهد، همانطور که در سری وبلاگ‌های Decoding AI توضیح داده شده است. به عنوان مثال، هوش مصنوعی می تواند فعال کند:

خلاقیت سریعتر: با استفاده از Stable Diffusion، کاربران می توانند به سرعت تصاویر را با پیام های متنی ایجاد و بهبود بخشند تا به خروجی دلخواه برسند. هنگام استفاده از یک GPU RTX، این نتایج را می توان تا 2.2 برابر سریعتر از یک NPU تولید کرد. و به لطف پیشرفت‌های نرم‌افزاری با استفاده از NVIDIA TensorRT SDK، برنامه‌هایی که برای اجرای این مدل‌ها استفاده می‌شوند، مانند ComfyUI، 60 درصد افزایش بیشتری دریافت می‌کنند.

بازی های بزرگتر: فناوری NVIDIA DLSS با استفاده از هوش مصنوعی برای ایجاد خودکار پیکسل در بازی های ویدیویی، نرخ فریم را افزایش می دهد و کیفیت تصویر را بهبود می بخشد. با بهبودهای مداوم، از جمله بازسازی اشعه، DLSS کیفیت بصری غنی‌تری را برای گیم‌پلی همه‌جانبه‌تر فراهم می‌کند.

سرگرمی را تقویت کنید: RTX Video Supersolution از هوش مصنوعی برای بهبود ویدیو با حذف جلوه‌های فشرده‌سازی و تیز کردن لبه‌ها و در عین حال ارتقاء کیفیت ویدیو استفاده می‌کند. RTX Video HDR هر ویدئوی استاندارد محدوده دینامیکی را به HDR پر جنب و جوش تبدیل می کند و رنگ های پر جنب و جوش و پویا را هنگام پخش در Google Chrome، Microsoft Edge، Mozilla Firefox یا VLC پخش کننده رسانه فعال می کند.

بهبود بهره وری: برنامه نمایشی فناوری NVIDIA ChatRTX یک مدل زبان بزرگ مانند Meta’s Llama را برای جستجوی سریع یادداشت ها، اسناد یا تصاویر به داده های کاربر پیوند می دهد. رایگان برای دارندگان RTX GPU، نرم افزار چت اختصاصی پاسخ های سریع و مرتبط با زمینه را ارائه می دهد. از آنجایی که به صورت بومی روی رایانه‌های شخصی Windows RTX و ایستگاه‌های کاری اجرا می‌شود، نتایج سریع و خصوصی هستند.

این عکس فوری از قابلیت های هوش مصنوعی به سختی سطح امکانات این فناوری را خراش می دهد. با استفاده از یک سیستم مجهز به پردازنده گرافیکی NVIDIA یا GeForce RTX، کاربران همچنین می توانند مطالعات و تحقیقات STEM خود را ادامه دهند و از مجموعه ابزارهای مجهز به هوش مصنوعی NVIDIA Studio بهره ببرند.

تصمیمات، تصمیمات

بیش از 200 کامپیوتر قدرتمند RTX AI که قادر به اجرای هوش مصنوعی پیشرفته هستند.

رایانه های شخصی RTX AI خلاقیت، بازی و موارد دیگر را افزایش می دهند
Vivobook Pro 16X ایسوس دارای پردازنده گرافیکی لپ تاپ GeForce RTX 4070 است.

ASUS Vivobook Pro 16X دارای حداکثر پردازنده گرافیکی لپ‌تاپ GeForce RTX 4070، پنل فوق‌العاده 550 نیت، نسبت کنتراست فوق‌العاده بالا و طیف رنگی 100% فوق عریض DCI-P3 است. این در آمازون و ASUS.com در دسترس است.

رایانه های شخصی RTX AI خلاقیت، بازی و موارد دیگر را افزایش می دهند
Dell Inspiron 16 Plus 7640 دارای پردازنده گرافیکی لپ تاپ GeForce RTX 4060 است.

Dell Inspiron 16 Plus 7640 دارای پردازنده گرافیکی لپ تاپ GeForce RTX 4060 و صفحه نمایش 16:10 است که برای کاربرانی که روی چندین پروژه کار می کنند ایده آل است. دارای تست درجه نظامی برای قابلیت اطمینان بیشتر و ماژول پلتفرم قابل اعتماد داخلی با کاربری آسان برای محافظت از داده های حساس. در آمازون و Dell.com موجود است.

رایانه های شخصی RTX AI خلاقیت، بازی و موارد دیگر را افزایش می دهند
صفحه نمایش OLED AERO 16 گیگابایت با پردازنده گرافیکی لپ تاپ GeForce RTX 4070 عرضه می شود.

صفحه نمایش OLED AERO 16 گیگابایت که توسط پردازنده گرافیکی لپ تاپ GeForce RTX 4070 پشتیبانی می شود، به طور خاص برای حرفه ای ها، طراحان و خلاقان طراحی شده است. صفحه نمایش OLED 16:10 4K+ با حاشیه باریک توسط چندین شخص ثالث تأیید شده است تا بهترین تجربه بصری را با کالیبراسیون رنگ هر واحد از کارخانه توسط X-Rite 2.0 و کالیبراسیون رنگی Pantone ارائه دهد. این در آمازون و گیگابایت در دسترس است.

رایانه های شخصی RTX AI خلاقیت، بازی و موارد دیگر را افزایش می دهند
MSI Creator M14 با پردازنده گرافیکی لپ تاپ GeForce RTX 4070 عرضه می شود.

Creator M14 MSI دارای حداکثر یک پردازنده گرافیکی لپ تاپ GeForce RTX 4070 است که جهشی کوانتومی در عملکرد با DLSS 3 ارائه می کند تا دنیای مجازی واقعی را با ردیابی پرتوهای کامل فعال کند. علاوه بر این، مجموعه فناوری‌های Max-Q عملکرد سیستم، قدرت، عمر باتری و آکوستیک را برای حداکثر کارایی بهینه می‌کنند. یکی را در آمازون یا MSI.com بخرید.

اینها تنها تعدادی از بسیاری از رایانه های شخصی RTX AI موجود هستند که برخی از آنها در فروش هستند، از جمله Acer Nitro V، ASUS TUF 16″، HP Envy 16″ و Lenovo Yoga Pro 9i.

NVIDIA Studio را در ادامه دنبال کنید فیس بوک، اینستاگرام و X. دسترسی به آموزش ها در کانال استودیو در یوتیوب و با اشتراک به‌روزرسانی‌ها را مستقیماً به صندوق ورودی خود دریافت کنید بولتن استودیو.

هوش مصنوعی مولد بازی، کنفرانس ویدیویی و تجربیات تعاملی از همه نوع را متحول می کند. با مشترک شدن، چیزهای جدید و آینده را درک کنید خبر رمزگشایی شده توسط هوش مصنوعی.

منبع: https://blogs.nvidia.com/blog/ai-studio-rtx-pc-workstation-advanced/

نحوه استفاده از ابزارهای مولد هوش مصنوعی Obsidian

یادداشت سردبیر: این پست بخشی از سری رمزگشایی هوش مصنوعیکه هوش مصنوعی را با در دسترس‌تر کردن فناوری، نمایش سخت‌افزار، نرم‌افزار، ابزار و شتاب‌دهنده‌های جدید برای کاربران رایانه‌های شخصی GeForce RTX و NVIDIA RTX، از بین می‌برد.

همانطور که هوش مصنوعی مولد تکامل می یابد و صنعت شتاب می گیرد، جامعه ای از علاقه مندان به هوش مصنوعی در حال آزمایش راه هایی برای ادغام فناوری قدرتمند در گردش کار بهره وری مشترک هستند.

برنامه‌هایی که از افزونه‌های انجمن پشتیبانی می‌کنند، به کاربران این امکان را می‌دهند تا بررسی کنند که چگونه مدل‌های زبان بزرگ (LLM) می‌توانند انواع گردش کار را بهبود بخشند. با استفاده از سرورهای استنتاج محلی که توسط کتابخانه نرم‌افزار llama.cpp شتاب‌دهنده NVIDIA RTX ارائه می‌شوند، کاربران رایانه شخصی RTX AI می‌توانند به راحتی LLM‌های محلی را ادغام کنند.

قبلاً به این موضوع پرداختیم که چگونه کاربران می توانند از هوش مصنوعی Leo در مرورگر وب Brave برای بهبود تجربه مرور وب خود استفاده کنند. امروز، ما نگاهی به Obsidian، یک برنامه محبوب نوشتن و یادداشت برداری بر اساس زبان نشانه گذاری Markdown داریم که برای نگهداری سوابق پیچیده و به هم پیوسته پروژه های متعدد مفید است. این برنامه از افزونه های توسعه یافته توسط جامعه پشتیبانی می کند که عملکردهای اضافی را ارائه می دهند، از جمله چندین افزونه که به کاربران امکان می دهد Obsidian را به یک سرور استنتاج محلی مانند Olama یا LM Studio متصل کنند.

نحوه استفاده از ابزارهای مولد هوش مصنوعی Obsidian
استفاده از Obsidian و LM Studio برای ایجاد یادداشت با استفاده از LLM با پارامتر 27B که توسط RTX شتاب می‌گیرد.

اتصال Obsidian به LM Studio فقط مستلزم فعال کردن عملکرد سرور محلی در LM Studio با کلیک کردن روی نماد “Developer” در پانل سمت چپ، بارگیری هر مدل دانلود شده، فعال کردن دکمه CORS و کلیک کردن روی “شروع” است. URL تکمیل چت را از کنسول گزارش برنامه‌نویس (به طور پیش‌فرض «http://localhost:1234/v1/chat/completions») یادداشت کنید، زیرا افزونه‌ها برای اتصال به این اطلاعات نیاز دارند.

سپس Obsidian را اجرا کرده و پنل تنظیمات را باز کنید. بر روی “Community Plugins” و سپس “Browse” کلیک کنید. افزونه های اجتماعی زیادی در ارتباط با دامنه های LLM وجود دارد، اما دو گزینه محبوب Text Generator و Smart Connections هستند.

  • Text Generator برای تولید محتوا در انبار Obsidian مانند یادداشت‌ها و خلاصه‌هایی درباره موضوع تحقیق مفید است.
  • اتصالات هوشمند برای پرسیدن سوالاتی در مورد محتویات Obsidian Vault مفید هستند، مانند پاسخ دادن به یک سوال مبهم که سال ها پیش ذخیره شده بود.

هر افزونه راه مخصوص به خود را برای وارد کردن URL سرور LM دارد.

برای Text Generator، تنظیمات را باز کنید و “Custom” را برای “Provider Profile” انتخاب کنید و کل URL را در قسمت “Endpoint” قرار دهید. برای اتصالات هوشمند، تنظیمات را پس از راه اندازی افزونه پیکربندی کنید. در پانل تنظیمات در سمت راست رابط، “Custom Local (OpenAI Format)” را برای پلتفرم معمولی انتخاب کنید. سپس URL و نام مدل (به عنوان مثال “gemma-2-27b-instruct”) را در فیلدهای آنها همانطور که در LM Studio ظاهر می شوند وارد کنید.

پس از پر شدن فیلدها، افزونه ها کار خواهند کرد. اگر کاربران به آنچه در سمت سرور محلی اتفاق می افتد علاقه مند باشند، رابط کاربری LM Studio نیز فعالیت ثبت شده را نمایش می دهد.

گردش کار خود را با پلاگین های هوش مصنوعی Obsidian تغییر دهید

هر دو افزونه Text Generator و Smart Connections از هوش مصنوعی مولد به روش های قانع کننده ای استفاده می کنند.

به عنوان مثال، تصور کنید که کاربری می‌خواهد برای تعطیلات به مقصد ساختگی شهر قمری برنامه‌ریزی کند و ایده‌هایی درباره کارهایی که باید در آنجا انجام دهد، در میان بگذارد. کاربر یادداشت جدیدی با عنوان “در شهر قمری چه باید کرد” را شروع می کند. از آنجایی که شهر قمری یک مکان واقعی نیست، یک درخواست ارسال شده به LLM باید شامل دستورالعمل‌های اضافی برای راهنمایی پاسخ‌ها باشد. بر روی آیکون افزونه Text Generator کلیک کنید و فرم لیستی از فعالیت هایی را که باید در طول سفر انجام دهید ایجاد می کند.

Obsidian، از طریق پلاگین Text Generator، از LM Studio می خواهد که پاسخی را ایجاد کند، و LM Studio به نوبه خود مدل Gemma 2 27B را اجرا خواهد کرد. با افزایش سرعت پردازنده گرافیکی RTX در رایانه کاربر، مدل می تواند به سرعت لیستی از کارهایی که باید انجام شود را ایجاد کند.

نحوه استفاده از ابزارهای مولد هوش مصنوعی Obsidian
افزونه Obsidian’s Text Generator Community به کاربران امکان می دهد به LLM در LM Studio متصل شوند و یادداشت هایی برای تعطیلات فانتزی ایجاد کنند. افزونه Obsidian’s Text Generator Community به کاربران اجازه می دهد تا از طریق LM Studio به LLM دسترسی داشته باشند تا یادداشت هایی برای تعطیلات خیالی ایجاد کنند.

یا فرض کنید پس از چندین سال دوست کاربر به شهر قمری می رود و می خواهد بداند کجا غذا بخورد. کاربر ممکن است نام مکان هایی را که خورده است به خاطر نیاورد، اما می تواند یادداشت های موجود در خزانه خود را بررسی کند (اصطلاح Obsidian برای مجموعه ای از یادداشت ها) در صورتی که چیزی یادداشت کند.

کاربر می‌تواند به‌جای جستجوی دستی در میان همه یادداشت‌ها، از افزونه Smart Connections برای پرسیدن سؤالات در مورد خزانه یادداشت‌ها و سایر محتوای خود استفاده کند. این افزونه از همان سرور LM Studio برای پاسخ به درخواست استفاده می‌کند و اطلاعات مرتبطی را که از بازخورد کاربر پیدا می‌کند برای کمک به فرآیند ارائه می‌کند. این افزونه این کار را با استفاده از تکنیکی به نام تولید حلقه تقویت شده انجام می دهد.

نحوه استفاده از ابزارهای مولد هوش مصنوعی Obsidian
پلاگین جامعه اتصالات هوشمند Obsidian از تولید حلقه بک تقویت شده و اتصال به LM Studio استفاده می کند تا کاربران را قادر سازد بازخورد خود را جویا شوند.

این‌ها نمونه‌های جالبی هستند، اما پس از صرف زمان برای استفاده از این قابلیت‌ها، کاربران می‌توانند مزایای واقعی و بهبود بهره‌وری روزانه را ببینند. پلاگین های Obsidian تنها دو راهی هستند که توسعه دهندگان جامعه و علاقه مندان به هوش مصنوعی از هوش مصنوعی برای بهبود تجربیات خود در رایانه شخصی استفاده می کنند. .

فناوری NVIDIA GeForce RTX برای رایانه های شخصی ویندوزی می تواند هزاران قالب منبع باز را برای توسعه دهندگان اجرا کند تا آنها را در برنامه های ویندوز خود ادغام کنند.

با ادغام Obsidian در گردش کار خود و بازی با تجربه تسریع شده موجود در PC RTX AI درباره قدرت LLM، تولید متن و ارتباطات هوشمند بیشتر بدانید.

هوش مصنوعی مولد بازی، کنفرانس ویدیویی و تجربیات تعاملی از همه نوع را متحول می کند. با مشترک شدن، چیزهای جدید و آینده را درک کنید خبر رمزگشایی شده توسط هوش مصنوعی.

منبع: https://blogs.nvidia.com/blog/ai-decoded-obsidian/