Root Nationاستاتفن آوری هاPhi-3-mini یک پیشرفت است Microsoft در زمینه هوش مصنوعی؟

Phi-3-mini یک پیشرفت است Microsoft در زمینه هوش مصنوعی؟

-

مدل هوش مصنوعی Phi توسط Microsoft - کوچک، ارزان است و از "توهم" رنج نمی برد. این چیزی است که آنها در مورد مدل زبان جدید می گویند که پیش بینی می شود آینده خوبی داشته باشد.

GPT کاملاً عالی است، اما در عین حال، بسیار گران است و نمی تواند برای همه عالی باشد. به این دلایل و خیلی دلایل دیگر Microsoft در حال آزمایش با مدل های هوش مصنوعی بسیار کوچکتر است. گفته می شود که Phi-3-mini حتی کار مهندسان OpenAI را شرمنده می کند.

همچنین جالب: ترانزیستورهای آینده: عصر جدیدی از تراشه ها در انتظار ما است

ChatGPT یک دارو نیست

ChatGPT اختراعی است که بودجه، سرپرستی و بهبود یافته است Microsoft. در واقع به آن تعلق ندارد Microsoftو شرکت OpenAI که Microsoft مالک نیست (او پیشرو است، اگرچه بزرگترین سرمایه گذار نیست). مدل زبان GPT داد Microsoft یک مزیت غول‌پیکر نسبت به بقیه شرکت‌های بزرگ فناوری که اکنون عجله دارند به عقب برسند. با این حال، تعداد زیادی از مشکلات با GPT وجود دارد که بسیاری از آنها هنوز قابل حل نیستند.

اول از همه، این یک مدل زبانی بسیار منابع فشرده است. وب گرا Microsoft Copilot یا ChatGPT OpenAI هزینه های عملیاتی بسیار بالایی برای آن ایجاد می کند Microsoft. این یک ویژگی نه تنها GPT، بلکه در همه مدل های زبان اصلی است. علاوه بر این، GPT، مانند رقبای خود، مستعد "توهمات" است، به این معنی که می تواند به سوالاتی که حاوی اطلاعات نادرست یا گمراه کننده هستند، پاسخ دهد. هر چه چنین مدلی داده های بیشتری جذب کند، تمایل بیشتری به تولید محتوای مشابه دارد. بنابراین، توهمات و اظهارات نادرست افسانه ای نیست که از انگشت دیجیتال مکیده شود. کاربران اغلب توجه می‌کنند که مدل‌های زبان بزرگ اغلب اشتباه می‌کنند، داده‌های نادرست ارائه می‌دهند و بر اساس حقایق ناموجود عمل می‌کنند.

Microsoft فی

هر دو مشکل بسیار جدی هستند، به همین دلیل است که OpenAI، Microsoft، متا، گوگل و دیگران در حال کار بر روی توسعه نه تنها فناوری مدل زبان بزرگ، بلکه مدل زبان کوچک نیز هستند که در عمل می تواند نتایج بسیار بهتری ایجاد کند.

دستیار حسابدار دیجیتال نیازی به دانستن چیزهای زیادی در مورد فیزیک کوانتومی ندارد. می‌تواند بسیار کوچک‌تر و پیچیده‌تر (و در نتیجه ارزان‌تر) باشد و تنها با آموزش داده‌های لازم برای هدفش، از نظر تئوری باید کمتر توهم ایجاد کند. اگرچه گفتن این کار آسان تر از انجام آن است. فناوری GenAI هنوز یک سرمایه گذاری وحشی در فناوری اطلاعات است. و اگرچه کار با سرعت بی‌سابقه‌ای در حال پیشرفت است، هنوز هم دستیابی به پیشرفت‌های عملی در مسائل اساسی دشوار است. اما شرکت Microsoft اخیراً چنین پیشرفتی را اعلام کرده است. ما در مورد یک مدل زبان کوچک صحبت می کنیم Microsoft فی.

همچنین جالب: نحوه مبارزه تایوان، چین و ایالات متحده برای تسلط فناوری: جنگ بزرگ تراشه

آنچه در مورد آن شناخته شده است Microsoft فی

اول از همه، لازم به ذکر است که این آزمایش بدون مشارکت شرکت OpenAI انجام شده است. یعنی پیشرفت مهندسان است Microsoft.

- تبلیغات -

مدل ها Microsoft Phi مجموعه ای از مدل های زبان کوچک (SLM) است که در آزمون های مختلف به نتایج استثنایی می رسد. مدل اول، Phi-1، دارای 1,3 میلیارد پارامتر بود و بهترین نتایج کدگذاری پایتون را در میان SLM های موجود به دست آورد.

Microsoft فی

توسعه دهندگان سپس بر درک و تفکر زبان تمرکز کردند و مدل Phi-1.5 را ایجاد کردند که همچنین دارای 1,3 میلیارد پارامتر بود و عملکردی قابل مقایسه با مدل هایی با پنج برابر پارامترها را نشان داد.

Microsoft فی

Phi-2 یک مدل 2,7 میلیارد پارامتری است که توانایی های استدلال و درک زبان برجسته را نشان می دهد و در سطح بهترین مدل های پایه با 13 میلیارد پارامتر عمل می کند. Phi-2 به دلیل نوآوری هایش در مقیاس بندی مدل و آموزش تنظیم داده ها از سایر مدل ها متمایز است.

Microsoft فی

این در کاتالوگ مدل Azure AI Studio موجود است که تحقیق و توسعه در زمینه مدل های زبان را تسهیل می کند. Phi-2 در دسامبر 2023 راه اندازی شد. توسعه دهندگان اطمینان می دهند که به خوبی Mistral یا Lama 2 از متا کار می کند. و Phi-3 حتی بهتر از نسخه قبلی کار می کند.

Microsoft فی

با این حال، مدل Phi-3 که به تازگی معرفی شد از نظر کیفیت کاملاً جدید است. حداقل این چیزی است که می توانید از روی اطلاعات ارائه شده قضاوت کنید Microsoft. به گفته این شرکت، با توجه به شاخص های همه معیارهای شناخته شده، Phi-3 بهتر از هر مدل دیگری با اندازه مشابه، از جمله تجزیه و تحلیل زبان، کار برنامه نویسی یا کار ریاضی عمل می کند.

Microsoft فی

Phi-3-mini کوچکترین نسخه این مدل به تازگی در دسترس تمامی علاقه مندان قرار گرفته است. یعنی از 23 آوریل موجود است. Phi-3-mini 3,8 میلیارد پارامتر دارد و طبق اندازه گیری ها Microsoft، دو برابر کارآمدتر از هر مدل دیگری با همان اندازه. می توان آن را در کاتالوگ مدل های هوش مصنوعی سرویس ابری یافت Microsoft Azure، پلتفرم مدل یادگیری ماشینی Hugging Face، و Ollama، چارچوبی برای اجرای مدل‌ها در رایانه محلی.

همانطور که او ادعا می کند Microsoft، Phi-3-mini به تراشه های قدرتمند نیاز ندارد Nvidia. این مدل می تواند بر روی تراشه های کامپیوتری معمولی کار کند. یا حتی بر روی تلفنی که به اینترنت وصل نیست مناسب باشد.

قدرت کمتر همچنین به این معنی است که مدل ها به اندازه دقیق نیستند. Phi-3 برای پزشکان یا حسابداران مالیاتی مناسب نخواهد بود، اما در کارهای ساده تر کمک خواهد کرد. به عنوان مثال، برای هدف قرار دادن تبلیغات یا خلاصه کردن نظرات در اینترنت.

از آنجایی که مدل‌های کوچک‌تر به پردازش کمتری نیاز دارند، استفاده از آنها برای شرکت‌های خصوصی ارزان‌تر خواهد بود. یعنی در Microsoft مشتریان بیشتری وجود خواهند داشت که مایلند هوش مصنوعی را در کار خود دخالت دهند، اما آن را بسیار گران می دانند. با این حال، هنوز مشخص نیست که هزینه آنها چقدر است.

هنوز مشخص نیست که مدل های کوچک و متوسط ​​چه زمانی ظاهر می شوند. اما دومی قدرتمندتر و گرانتر خواهد بود. اگرچه قبلاً مشخص شده است که Phi-3-small دارای 7 میلیارد پارامتر و Phi-3-medium حدود 14 میلیارد پارامتر خواهد بود.

- تبلیغات -

همچنین بخوانید:

چگونه از Phi-3-mini استفاده کنیم؟

GPT-4 Turbo به تراشه های هوش مصنوعی قدرتمند نیاز دارد که هنوز بسیار گران هستند. مدل مکالمه کوچک Phi-3 می تواند به صورت آفلاین، بدون ابر، حتی با یک تراشه روی تلفن همراه کار کند.

Phi-3 محصولی برای کاربران نهایی نیست، بلکه فناوری‌ای است که توسعه‌دهندگان می‌توانند از آن استفاده و در برنامه‌های خود پیاده‌سازی کنند - هم مبتنی بر ابر، یعنی از راه دور و هم آنهایی که به صورت محلی و آفلاین کار می‌کنند. انتظار می‌رود که این دستگاه به‌طور یکپارچه با دستگاه‌ها و اجزای آن‌ها مانند تلفن‌های همراه، خودروها و سیستم‌های سرگرمی اطلاعاتی آن‌ها یا حتی حسگرهای اینترنت اشیا کار کند. در برخی سناریوها، این فناوری می تواند ارزشمند باشد.

Microsoft فی

Microsoft حتی یک مثال ملموس می‌آورد تا مجبور نباشیم تخیل خود را تحت فشار قرار دهیم. کشاورز را تصور کنید که محصولات خود را بررسی می کند و علائم بیماری را روی برگ ها، ساقه ها و شاخه ها می بیند. او که از دکل های مخابراتی دور است، فقط باید گوشی خود را بیرون بیاورد، از آسیب عکس بگیرد، آن را در برنامه ای قرار دهد که از فناوری Phi-3 استفاده می کند - و مدل به سرعت و آفلاین عکس را تجزیه و تحلیل می کند و در مورد آن مشاوره می دهد. دقیقا چگونه با این بیماری مبارزه کنیم

همانطور که او توضیح می دهد Microsoft، کلید موفقیت GPT استفاده از داده های عظیم برای آموزش بود. با چنین مجموعه داده های بزرگی، کیفیت داده بالا قابل بحث نیست. در همین حال، هنگام آموزش مدل Phi، دقیقاً از رویکرد OpenAI استفاده شد. به جای پر کردن مدل با اطلاعات، تمرکز بر یادگیری تدریجی و کامل بود.

Microsoft فی

محققان به جای استفاده از داده های خام اینترنتی Microsoft مجموعه داده TinyStories را ایجاد کرد و میلیون‌ها داستان مینیاتوری "کودک" را تولید کرد. از این داستان ها برای آموزش مدل های زبانی بسیار کوچک استفاده می شد. محققان سپس با ایجاد مجموعه داده CodeTextbook که با دقت انتخاب شده و از داده‌های در دسترس عموم استفاده می‌کرد و برای ارزش آموزشی و کیفیت محتوا فیلتر شده بود، فراتر رفتند. سپس این داده ها چندین بار فیلتر شدند و برای سنتز بیشتر به یک مدل زبان بزرگ (LLM) بازگردانده شدند.

همه اینها امکان ایجاد آرایه ای از داده های کافی برای آموزش یک SLM توانمندتر را فراهم کرد. علاوه بر این، یک رویکرد چند سطحی برای مدیریت ریسک و کاهش در توسعه مدل Phi-3، از جمله ارزیابی، آزمایش و تنظیمات دستی استفاده شد. در نتیجه همانطور که او ادعا می کند Microsoft، توسعه دهندگانی که از خانواده مدل Phi-3 استفاده می کنند می توانند از مجموعه ابزار موجود در هوش مصنوعی Azure برای ساخت برنامه های کاربردی ایمن و قابل اعتمادتر استفاده کنند.

همچنین بخوانید: تله پورت از دیدگاه علمی و آینده آن

Microsoft آیا Phi جایگزین مدل‌های نوع ChatGPT می‌شود؟

اصلا. مدل‌های زبان کوچک (SLM)، حتی زمانی که بر روی داده‌های با کیفیت بالا آموزش داده می‌شوند، محدودیت‌های خود را دارند و برای یادگیری عمیق طراحی نشده‌اند. مدل‌های زبان بزرگ (LLM) به دلیل اندازه و قدرت محاسباتی‌شان از SLM در استدلال پیچیده بهتر عمل می‌کنند. LLM ها به ویژه در زمینه هایی مانند کشف دارو مفید هستند و خواهند بود، جایی که باید در مجموعه های وسیعی از مقالات علمی جستجو کرد و الگوهای پیچیده را تجزیه و تحلیل کرد. از سوی دیگر، SLM را می توان برای کارهای ساده تری مانند خلاصه کردن نکات اصلی یک سند متنی طولانی، ایجاد محتوا یا تقویت ربات های چت خدمات مشتری استفاده کرد.

Microsoft فی

Microsoftاو گفت، در حال حاضر از مجموعه‌های مدل ترکیبی به صورت داخلی استفاده می‌کند، جایی که LLM حرف اول را می‌زند و پرس و جوهای خاصی را که به قدرت محاسباتی کمتری نیاز دارند به سمت SLM هدایت می‌کند، در حالی که خود جستارهای پیچیده‌تر دیگر را مدیریت می‌کند. Phi برای محاسبات بر روی دستگاه‌ها، بدون استفاده از ابر قرار داده شده است. با این حال، هنوز بین مدل‌های زبان کوچک و سطح هوشی که می‌توان با مدل‌های بزرگ در فضای ابری به دست آورد، فاصله‌ای وجود خواهد داشت. این شکاف، به لطف توسعه مداوم LLM، بعید است به این زودی ها از بین برود.

Phi-3 هنوز توسط احزاب مستقل خارجی تأیید نشده است. Microsoft گاهی اوقات در مورد 25 برابر راندمان یا بهره وری انرژی در موارد شدید در مقایسه با رقبا صحبت می کند که کاملاً شگفت انگیز به نظر می رسد. اگرچه از سوی دیگر نمی توان فراموش کرد که این سال ها گذشته است Microsoft ما را کمی از این واقعیت که یک رهبر آشکار در نوآوری های IT است، دور کرد و شاید به همین دلیل است که ما واقعاً به آن اعتقاد نداریم. برنامه های مبتنی بر هوش مصنوعی که به جای تولید، فورا پاسخ می دهند و به صورت آفلاین اجرا می شوند؟ این اوج شایسته انقلاب کنونی خواهد بود. متاسفانه یک مشکل کلیدی وجود دارد.

همچنین بخوانید: همه چیز درباره تراشه Neuralink Telepathy: چیست و چگونه کار می کند

Phi-3 از Microsoft فقط انگلیسی می فهمد

Phi-3 پتابایت‌هایی را که به صورت انبوه به سمت آن پرتاب می‌شد، بلعید. آموزش دقیق و دقیق مدل شامل یک مشکل جزئی است. Phi-3 با اطلاعات به زبان انگلیسی آموزش دیده است و هنوز هیچ ایده ای از زبان دیگری ندارد. نه تنها اوکراینی، بلکه آلمانی، اسپانیایی، فرانسوی یا چینی. البته این امر جذابیت آن را برای اکثر کاربران در سراسر جهان بسیار کاهش می دهد.

Microsoft فی

ولی در Microsoft اطمینان داد که کار روی توسعه و بهبود آن در حال انجام است. اگرچه نباید خود را با این واقعیت فریب دهید که بازار اوکراین برای هر یک از شرکت های بزرگ اولویت دارد. بنابراین، برای پشتیبانی از زبان اوکراینی باید مدت زیادی صبر کنیم. اما این واقعیت هرگز علاقه مندان و کسانی را که می خواهند با پیشرفت همراه باشند متوقف نکرده است.

همچنین بخوانید: 

Yuri Svitlyk
Yuri Svitlyk
پسر کوه های کارپات، نابغه ناشناخته ریاضیات، "وکیل"Microsoft، نوع دوست عملی، چپ-راست
- تبلیغات -
ثبت نام
اطلاع رسانی در مورد
مهمان

0 نظرات
بررسی های جاسازی شده
مشاهده همه نظرات
برای به روز رسانی مشترک شوید