
بروزرسانی: 04 تیر 1404
پیش تولید بازیابی چیست و به عنوان یک پارچه نیز شناخته می شود
یادداشت سردبیر: این مقاله که در ابتدا در 15 نوامبر 2023 منتشر شد ، به روز شد.
برای درک آخرین تحولات در ضریب هوشی وارد کننده ، دادگاه را تصور کنید.
او قضات را می شنود و پرونده ها را بر اساس درک عمومی آنها از قانون تصمیم می گیرد. بعضی اوقات ، این پرونده نیاز دارد - مانند یک سوء رفتار یا مشاجره اشتغال - یک تجربه خاص ، بنابراین قضات نویسندگان دادگاه را به کتابخانه قانون می فرستند و برای جستجوی موارد خاص و مواردی که می توانند استناد کنند.
مانند یک قاضی خوب ، مدل های بزرگ LLMS می توانند به طیف گسترده ای از سوالات انسانی پاسخ دهند. اما برای ارائه پاسخ های معتبر - بر اساس رویه های خاص دادگاه یا موارد مشابه - این اطلاعات باید ارائه شود.
دادگاه هوش مصنوعی روندی به نام نسلی برای بازیابی یا یک پارچه کوتاه است.
چگونه او نام "rag" را بدست آورد
پاتریک لوئیس ، نویسنده اصلی برگه 2020 که این اصطلاح را تدوین کرده است ، از میانبرهای غیرمجاز عذرخواهی کرد که اکنون خانواده فزاینده ای از سبک ها را در صدها مقاله و ده ها سرویس تجاری توصیف می کند که اعتقاد بر این است که آینده هوش مصنوعی را نشان می دهد.

لوئیس در مصاحبه ای از سنگاپور گفت: "مطمئناً اگر می دانستیم که کار ما گسترده خواهد شد ، فکر بیشتری در مورد این نام خواهیم کرد."
لوئیس ، که در یک تیم RAG در استارتاپ AI Cole رهبری می کند ، گفت: "ما همیشه برنامه ریزی کرده ایم که نام صوتی زیباتر داشته باشیم ، اما وقتی زمان نوشتن مقاله است ، هیچ کس ایده بهتری نداشت."
بنابراین ، نسل قبلی بازیابی (RAG) چیست؟
تولید بازیابی تکنیکی برای افزایش دقت و قابلیت اطمینان مدل های اطلاعاتی زنان و زایمان با اطلاعات ارائه شده از منابع داده خاص و مرتبط است.
به عبارت دیگر ، شکافی در نحوه عملکرد LLMS پر می کند. در زیر کلاه ، LLMS شبکه های عصبی است که معمولاً با تعداد پارامترهای موجود در آن اندازه گیری می شود. پارامترهای LLM عمدتا الگوهای کلی نحوه استفاده انسان از کلمات برای تشکیل جملات را نشان می دهد.
این درک عمیق ، که گاهی اوقات دانش پارامتر نامیده می شود ، LLM ها را در پاسخ به ادعاهای عمومی مفید می کند. با این حال ، این خدمت به کاربرانی که می خواهند در یک نوع خاص از اطلاعات عمیق ترین شیرجه بزنند ، خدمت نمی کند.
ترکیب منابع داخلی و خارجی
لوئیس و همکارانش نسلی از تغذیه را برای بازیابی برای پیوند دادن خدمات اطلاعاتی مصنوعی به منابع خارجی ، به ویژه آنهایی که از آخرین جزئیات فنی غنی هستند ، ایجاد کرده اند.
این مقاله ، که شامل نویسندگان تحقیقات AI Facebook (در حال حاضر متا AI) است ، دانشگاه دانشگاه در لندن و دانشگاه نیویورک را توصیف کرد ، Rag را به عنوان "دستور العمل پالایش برای اهداف عمومی" توصیف کرد زیرا تقریباً توسط هر LLM می تواند برای برقراری ارتباط با آنها استفاده شود در عمل هر منبع خارجی.
اعتماد به نفس کاربر
نسل بازیابی به منابع مدل هایی که می توانند استناد کنند ، مانند پاورقی ها در یک مقاله تحقیقاتی ، می دهد تا کاربران بتوانند ادعاهای خود را بررسی کنند. این اعتماد به نفس ایجاد می کند.
علاوه بر این ، این تکنیک می تواند به مدل های اسکن رمز و راز در پرس و جو کاربر کمک کند. همچنین این احتمال را کاهش می دهد که مدل پاسخ بسیار معقول اما نادرست ارائه دهد ، پدیده ای به نام توهم.
یکی دیگر از ویژگی های عالی موش این است که نسبتاً آسان است. وبلاگ لوئیس و سه اثر مشترک این مقاله گفتند که توسعه دهندگان می توانند با حداقل پنج خط کد این روند را انجام دهند.
این باعث می شود روش سریعتر و ارزان تر از تغییر مجدد یک مدل با مجموعه داده های اضافی باشد. این امکان را برای کاربران فراهم می کند که در هنگام پرواز منابع جدید را مبادله کنند.
چگونه مردم از پارچه ای استفاده می کنند
از طریق نسلی برای بازیابی ، کاربران می توانند به طور عمده با انبارهای داده مکالمه کنند و انواع جدیدی از آزمایشات را باز کنند. این بدان معنی است که برنامه های RAG می توانند چندین برابر تعداد مجموعه داده ها در دسترس باشند.
به عنوان مثال ، ضریب هوشی trucitomic با یک شاخص پزشکی عالی برای پزشک یا پرستار مکمل است. تحلیلگران مالی از دستیار مرتبط با داده های بازار بهره مند می شوند.
در حقیقت ، تقریباً هر اثری می تواند بروشور هنری ، سیاست ، فیلم یا ورود به منابع به نام قوانین دانش را که می تواند LLM ها را تقویت کند ، وارد کند. این منابع می توانند موارد استفاده مانند پشتیبانی مشتری یا میدانی ، آموزش کارمندان و بهره وری توسعه دهنده را فعال کنند.
پتانسیل گسترده به همین دلیل است که شرکت هایی از جمله AWS ، IBM ، Glean ، Google ، Microsoft ، Nvidia ، Oracle و Pinecone به موش وابسته هستند.
شروع قبل از نسل برای بازیابی
برنامه NVIDIA AI برای توسعه دهندگان به ساخت خطوط لوله برای اتصال برنامه های اطلاعاتی مصنوعی خود به داده های موسسات با استفاده از فناوری پیشرو در صنعت کمک می کند. این ساختار مرجع عمدتاً توسعه دهندگان را برای ساخت خطوط لوله توسعه یافته و توسعه یافته فراهم می کند که دقت و بهره وری بالایی را ارائه می دهند.
این نمودار را می توان به عنوان موجود ، یا همراه با سایر نمودارهای NVIDIA برای موارد استفاده پیشرفته از جمله انسانهای دیجیتال و دستیاران هوش مصنوعی استفاده کرد. به عنوان مثال ، برنامه دستیاران هوش مصنوعی سازمانها را قادر می سازد تا نمایندگان اطلاعاتی مصنوعی را بسازند که بتوانند به سرعت عملیات خدمات مشتری خود را با استفاده از هوش مصنوعی و RAG گسترش دهند.
علاوه بر این ، توسعه دهندگان و تیم های فناوری اطلاعات می توانند آزمایشگاه رایگان NVIDIA Launchpad را که در حال مطالعه برای ایجاد چت بابات های هوش مصنوعی با استفاده از RAG است ، امتحان کنند و پاسخ های سریع و دقیقی را از داده های این موسسه ارائه دهند.
از همه این منابع به عنوان Nvidia Nemo Retriever استفاده می شود ، که یک وضوح گسترده گسترده و میکروسرویس NVIDIA NIM را برای ساده کردن گسترش هوش مصنوعی ایمن و با عملکرد بالا از طریق ابرها ، مراکز داده و ایستگاه های کار فراهم می کند. این به عنوان بخشی از بستر نرم افزاری NVIDIA AI Enterise برای تسریع در توسعه و گسترش هوش مصنوعی ارائه شده است.
بهترین عملکرد کار RAG به مقادیر عظیمی از حافظه ، محاسبه داده ها و پردازش داده ها نیاز دارد. NVIDIA GH200 GRACE HOPPER SUPERCHIP ، با یک حافظه HBM3E سریع 288 گیگابایتی و 8 petaflops حساب ، عالی - می تواند با استفاده از CPU شتاب 150 برابر را ارائه دهد.
هنگامی که شرکت ها با RAG آشنا می شوند ، می توانند انواع LLM یا LLM را با قوانین دانش داخلی یا خارجی ترکیب کنند تا طیف گسترده ای از دستیاران را ایجاد کنند که به کارمندان و مشتریان خود کمک می کنند.
RAT نیازی به مرکز داده ندارد. LLMS به لطف برنامه NVIDIA برای اولین بار در رایانه های ویندوز ظاهر می شود که همه نوع برنامه هایی را که کاربران می توانند حتی در لپ تاپ های خود به آن دسترسی پیدا کنند ، امکان پذیر می کند.

GPU های NVIDIA RTX اکنون می توانند برخی از مدل های هوش مصنوعی را به صورت محلی اجرا کنند. با استفاده از RAG در رایانه ، کاربران می توانند برای بهبود پاسخ ها به یک منبع دانش خاص - خواه ایمیل ، یادداشت یا مقاله باشند. سپس کاربر می تواند احساس اطمینان کند که منبع داده ها ، خواسته ها و پاسخ ها همه خصوصی و ایمن هستند.
وبلاگ مدرن نمونه ای از RAG را که توسط Tensorrt-LLM برای ویندوز برای نتایج بهتر شتاب می یابد ، ارائه می دهد.
تاریخچه پارچه
ریشه این فناوری حداقل به اوایل دهه هفتاد باز می گردد. و این زمانی است که محققان اطلاعات را بازیابی کردند که آنچه را که آنها به آنها سیستم پاسخ سؤال و برنامه هایی که از NLP برای رسیدن به متن استفاده می کنند ، بازیابی کردند ، در ابتدا در موضوعات باریک مانند بیس بال.
مفاهیم موجود در این نوع متن معدن طی سالها تا حدودی ثابت بوده است. اما موتورهای یادگیری اتوماتیک به طور قابل توجهی رشد کرده اند که باعث افزایش فواید و محبوبیت آنها می شود.
در اواسط قرن گذشته ، سرویس Ask Jeeves ، که اکنون از آنها سؤال می شود ، به سؤالات مربوط به Amulet خودرو خود پاسخ داد. واتسون در IBM در سال 2011 وقتی به راحتی دو قهرمان انسانی را شکست داد ، به یک مشهور تلویزیون تبدیل شد خطر! بازی را نشان دهید.
امروز ، LLMS پاسخ های سؤالات را به یک سطح کاملاً جدید منتقل می کند.
دیدگاه از آزمایشگاه لندن
سمینال 2020 وارد شد در حالی که لوئیس دکترای NLP را در دانشگاه دانشگاه لندن دنبال می کرد و در آزمایشگاه AI New London در متا کار می کرد. این تیم به دنبال راه هایی برای پر کردن دانش بیشتر در پارامترهای LLM و استفاده از استاندارد برای پیشرفت آن بود.
بر اساس روشهای قبلی با الهام از مقاله ای از محققان Google ، این گروه "این دیدگاه قانع کننده از سیستم مربی بود که دارای شاخص بازیابی در وسط بود ، تا بتوانید متنی را که می خواهید یاد بگیرید و ایجاد کنید."

هنگامی که لوئیس به پیشرفت یک رژیم امیدوار کننده از تیم مرده دیگر متصل شد ، اولین نتایج به طور غیر منتظره ای چشمگیر بود.
"من به سرپرستان خود پیشنهاد دادم و گفتم:" بایستید ، برنده شوید. این نوع کارها اغلب اتفاق نمی افتد ، زیرا این گردش کار ممکن است برای اولین بار به درستی تهیه شود. "
لوئیس همچنین به ترتیب به مشارکتهای اصلی اعضای تیم اتان پرز و دووی کلا ، سپس به ترتیب از دانشگاه نیویورک و تحقیقات بین المللی عفو به ترتیب نسبت داده می شود.
پس از اتمام ، کار ، که روی گروهی از واحدهای پردازش گرافیکی NVIDIA کار می کرد ، نشان داد که چگونه می توان مدل های اطلاعاتی زنان و زایمان را قابل اطمینان تر و شایسته تر کرد. از آن زمان به بعد توسط صدها مقاله که مفاهیم را تورم و گسترش داده اند ، در حالی که هنوز یک زمینه تحقیق فعال است ، ذکر شده است.
چگونه نسل در بازیابی آثار نشان داده شده است
در سطح بالایی ، در اینجا چگونه نسل متمرکز در آثار بازیابی است.
هنگامی که کاربران در مورد LLM سؤالی می پرسند ، مدل هوش مصنوعی پرس و جو را به مدل دیگری ارسال می کند که آن را به فرمت دیجیتال تبدیل می کند تا ماشین ها بتوانند آن را بخوانند. نسخه دیجیتالی پرس و جو گاهی اوقات شامل یا محجبه می شود.

سپس فرم گنجاندن این مقادیر دیجیتالی را با بردارها در یک شاخص قابل خواندن از پایگاه دانش موجود مقایسه می کند. هنگامی که او چندین تطبیق یا مطابقت پیدا می کند ، داده های مربوطه را به یاد می آورد ، آنها را به کلمات قابل خواندن انسان تبدیل می کند و آنها را به سمت LLM سوق می دهد.
سرانجام ، LLM کلمات بازیابی شده را با پاسخ خود به سوالات در پاسخ نهایی که وی در معرض کاربر قرار می دهد ، ترکیب می کند ، که احتمالاً به مدل ورود به سیستم موجود استناد می کند.
حفظ منابع فعلی
در پس زمینه ، مدل ورود به سیستم شاخص های خواندن خودکار ، که گاهی اوقات پایگاه داده های بردار نامیده می شوند ، برای قوانین دانش جدید و به روز شده در صورت وجود ایجاد و به روز می کند.

بسیاری از توسعه دهندگان می دانند که Langchain ، یک کتابخانه منبع باز ، می تواند به ویژه در LLMS Sequence با هم مفید باشد و شامل دانش و قوانین دانش است. Nvidia Langchain در ساختار مرجع آن برای پیش تولید برای بازیابی استفاده می شود.
Langchain توضیحات خاص خود را در مورد یک فرآیند RAG ارائه می دهد.
آینده AI isiric - جایی که LLMS و قوانین دانش برای ایجاد دستیاران مستقل پویا هستند. این عوامل هوش مصنوعی می تواند تصمیم گیری در مورد تصمیم گیری ، سازگاری با کارهای پیچیده را تقویت کند و نتایج قابل اعتماد و قابل اعتماد را برای کاربران ارائه دهد.
منبع: https://blogs.nvidia.com/blog/what-is-retrieval-augmented-generation/