مدل هوش مصنوعی Phi توسط Microsoft - کوچک، ارزان است و از "توهم" رنج نمی برد. این چیزی است که آنها در مورد مدل زبان جدید می گویند که پیش بینی می شود آینده خوبی داشته باشد.
GPT کاملاً عالی است، اما در عین حال، بسیار گران است و نمی تواند برای همه عالی باشد. به این دلایل و خیلی دلایل دیگر Microsoft در حال آزمایش با مدل های هوش مصنوعی بسیار کوچکتر است. گفته می شود که Phi-3-mini حتی کار مهندسان OpenAI را شرمنده می کند.
همچنین جالب: ترانزیستورهای آینده: عصر جدیدی از تراشه ها در انتظار ما است
ChatGPT یک دارو نیست
ChatGPT اختراعی است که بودجه، سرپرستی و بهبود یافته است Microsoft. در واقع به آن تعلق ندارد Microsoftو شرکت OpenAI که Microsoft مالک نیست (او پیشرو است، اگرچه بزرگترین سرمایه گذار نیست). مدل زبان GPT داد Microsoft یک مزیت غولپیکر نسبت به بقیه شرکتهای بزرگ فناوری که اکنون عجله دارند به عقب برسند. با این حال، تعداد زیادی از مشکلات با GPT وجود دارد که بسیاری از آنها هنوز قابل حل نیستند.
اول از همه، این یک مدل زبانی بسیار منابع فشرده است. وب گرا Microsoft Copilot یا ChatGPT OpenAI هزینه های عملیاتی بسیار بالایی برای آن ایجاد می کند Microsoft. این یک ویژگی نه تنها GPT، بلکه در همه مدل های زبان اصلی است. علاوه بر این، GPT، مانند رقبای خود، مستعد "توهمات" است، به این معنی که می تواند به سوالاتی که حاوی اطلاعات نادرست یا گمراه کننده هستند، پاسخ دهد. هر چه چنین مدلی داده های بیشتری جذب کند، تمایل بیشتری به تولید محتوای مشابه دارد. بنابراین، توهمات و اظهارات نادرست افسانه ای نیست که از انگشت دیجیتال مکیده شود. کاربران اغلب توجه میکنند که مدلهای زبان بزرگ اغلب اشتباه میکنند، دادههای نادرست ارائه میدهند و بر اساس حقایق ناموجود عمل میکنند.
هر دو مشکل بسیار جدی هستند، به همین دلیل است که OpenAI، Microsoft، متا، گوگل و دیگران در حال کار بر روی توسعه نه تنها فناوری مدل زبان بزرگ، بلکه مدل زبان کوچک نیز هستند که در عمل می تواند نتایج بسیار بهتری ایجاد کند.
دستیار حسابدار دیجیتال نیازی به دانستن چیزهای زیادی در مورد فیزیک کوانتومی ندارد. میتواند بسیار کوچکتر و پیچیدهتر (و در نتیجه ارزانتر) باشد و تنها با آموزش دادههای لازم برای هدفش، از نظر تئوری باید کمتر توهم ایجاد کند. اگرچه گفتن این کار آسان تر از انجام آن است. فناوری GenAI هنوز یک سرمایه گذاری وحشی در فناوری اطلاعات است. و اگرچه کار با سرعت بیسابقهای در حال پیشرفت است، هنوز هم دستیابی به پیشرفتهای عملی در مسائل اساسی دشوار است. اما شرکت Microsoft اخیراً چنین پیشرفتی را اعلام کرده است. ما در مورد یک مدل زبان کوچک صحبت می کنیم Microsoft فی.
همچنین جالب: نحوه مبارزه تایوان، چین و ایالات متحده برای تسلط فناوری: جنگ بزرگ تراشه
آنچه در مورد آن شناخته شده است Microsoft فی
اول از همه، لازم به ذکر است که این آزمایش بدون مشارکت شرکت OpenAI انجام شده است. یعنی پیشرفت مهندسان است Microsoft.
مدل ها Microsoft Phi مجموعه ای از مدل های زبان کوچک (SLM) است که در آزمون های مختلف به نتایج استثنایی می رسد. مدل اول، Phi-1، دارای 1,3 میلیارد پارامتر بود و بهترین نتایج کدگذاری پایتون را در میان SLM های موجود به دست آورد.
توسعه دهندگان سپس بر درک و تفکر زبان تمرکز کردند و مدل Phi-1.5 را ایجاد کردند که همچنین دارای 1,3 میلیارد پارامتر بود و عملکردی قابل مقایسه با مدل هایی با پنج برابر پارامترها را نشان داد.
Phi-2 یک مدل 2,7 میلیارد پارامتری است که توانایی های استدلال و درک زبان برجسته را نشان می دهد و در سطح بهترین مدل های پایه با 13 میلیارد پارامتر عمل می کند. Phi-2 به دلیل نوآوری هایش در مقیاس بندی مدل و آموزش تنظیم داده ها از سایر مدل ها متمایز است.
این در کاتالوگ مدل Azure AI Studio موجود است که تحقیق و توسعه در زمینه مدل های زبان را تسهیل می کند. Phi-2 در دسامبر 2023 راه اندازی شد. توسعه دهندگان اطمینان می دهند که به خوبی Mistral یا Lama 2 از متا کار می کند. و Phi-3 حتی بهتر از نسخه قبلی کار می کند.
با این حال، مدل Phi-3 که به تازگی معرفی شد از نظر کیفیت کاملاً جدید است. حداقل این چیزی است که می توانید از روی اطلاعات ارائه شده قضاوت کنید Microsoft. به گفته این شرکت، با توجه به شاخص های همه معیارهای شناخته شده، Phi-3 بهتر از هر مدل دیگری با اندازه مشابه، از جمله تجزیه و تحلیل زبان، کار برنامه نویسی یا کار ریاضی عمل می کند.
Phi-3-mini کوچکترین نسخه این مدل به تازگی در دسترس تمامی علاقه مندان قرار گرفته است. یعنی از 23 آوریل موجود است. Phi-3-mini 3,8 میلیارد پارامتر دارد و طبق اندازه گیری ها Microsoft، دو برابر کارآمدتر از هر مدل دیگری با همان اندازه. می توان آن را در کاتالوگ مدل های هوش مصنوعی سرویس ابری یافت Microsoft Azure، پلتفرم مدل یادگیری ماشینی Hugging Face، و Ollama، چارچوبی برای اجرای مدلها در رایانه محلی.
همانطور که او ادعا می کند Microsoft، Phi-3-mini به تراشه های قدرتمند نیاز ندارد Nvidia. این مدل می تواند بر روی تراشه های کامپیوتری معمولی کار کند. یا حتی بر روی تلفنی که به اینترنت وصل نیست مناسب باشد.
قدرت کمتر همچنین به این معنی است که مدل ها به اندازه دقیق نیستند. Phi-3 برای پزشکان یا حسابداران مالیاتی مناسب نخواهد بود، اما در کارهای ساده تر کمک خواهد کرد. به عنوان مثال، برای هدف قرار دادن تبلیغات یا خلاصه کردن نظرات در اینترنت.
از آنجایی که مدلهای کوچکتر به پردازش کمتری نیاز دارند، استفاده از آنها برای شرکتهای خصوصی ارزانتر خواهد بود. یعنی در Microsoft مشتریان بیشتری وجود خواهند داشت که مایلند هوش مصنوعی را در کار خود دخالت دهند، اما آن را بسیار گران می دانند. با این حال، هنوز مشخص نیست که هزینه آنها چقدر است.
هنوز مشخص نیست که مدل های کوچک و متوسط چه زمانی ظاهر می شوند. اما دومی قدرتمندتر و گرانتر خواهد بود. اگرچه قبلاً مشخص شده است که Phi-3-small دارای 7 میلیارد پارامتر و Phi-3-medium حدود 14 میلیارد پارامتر خواهد بود.
همچنین بخوانید:
چگونه از Phi-3-mini استفاده کنیم؟
GPT-4 Turbo به تراشه های هوش مصنوعی قدرتمند نیاز دارد که هنوز بسیار گران هستند. مدل مکالمه کوچک Phi-3 می تواند به صورت آفلاین، بدون ابر، حتی با یک تراشه روی تلفن همراه کار کند.
Phi-3 محصولی برای کاربران نهایی نیست، بلکه فناوریای است که توسعهدهندگان میتوانند از آن استفاده و در برنامههای خود پیادهسازی کنند - هم مبتنی بر ابر، یعنی از راه دور و هم آنهایی که به صورت محلی و آفلاین کار میکنند. انتظار میرود که این دستگاه بهطور یکپارچه با دستگاهها و اجزای آنها مانند تلفنهای همراه، خودروها و سیستمهای سرگرمی اطلاعاتی آنها یا حتی حسگرهای اینترنت اشیا کار کند. در برخی سناریوها، این فناوری می تواند ارزشمند باشد.
Microsoft حتی یک مثال ملموس میآورد تا مجبور نباشیم تخیل خود را تحت فشار قرار دهیم. کشاورز را تصور کنید که محصولات خود را بررسی می کند و علائم بیماری را روی برگ ها، ساقه ها و شاخه ها می بیند. او که از دکل های مخابراتی دور است، فقط باید گوشی خود را بیرون بیاورد، از آسیب عکس بگیرد، آن را در برنامه ای قرار دهد که از فناوری Phi-3 استفاده می کند - و مدل به سرعت و آفلاین عکس را تجزیه و تحلیل می کند و در مورد آن مشاوره می دهد. دقیقا چگونه با این بیماری مبارزه کنیم
همانطور که او توضیح می دهد Microsoft، کلید موفقیت GPT استفاده از داده های عظیم برای آموزش بود. با چنین مجموعه داده های بزرگی، کیفیت داده بالا قابل بحث نیست. در همین حال، هنگام آموزش مدل Phi، دقیقاً از رویکرد OpenAI استفاده شد. به جای پر کردن مدل با اطلاعات، تمرکز بر یادگیری تدریجی و کامل بود.
محققان به جای استفاده از داده های خام اینترنتی Microsoft مجموعه داده TinyStories را ایجاد کرد و میلیونها داستان مینیاتوری "کودک" را تولید کرد. از این داستان ها برای آموزش مدل های زبانی بسیار کوچک استفاده می شد. محققان سپس با ایجاد مجموعه داده CodeTextbook که با دقت انتخاب شده و از دادههای در دسترس عموم استفاده میکرد و برای ارزش آموزشی و کیفیت محتوا فیلتر شده بود، فراتر رفتند. سپس این داده ها چندین بار فیلتر شدند و برای سنتز بیشتر به یک مدل زبان بزرگ (LLM) بازگردانده شدند.
همه اینها امکان ایجاد آرایه ای از داده های کافی برای آموزش یک SLM توانمندتر را فراهم کرد. علاوه بر این، یک رویکرد چند سطحی برای مدیریت ریسک و کاهش در توسعه مدل Phi-3، از جمله ارزیابی، آزمایش و تنظیمات دستی استفاده شد. در نتیجه همانطور که او ادعا می کند Microsoft، توسعه دهندگانی که از خانواده مدل Phi-3 استفاده می کنند می توانند از مجموعه ابزار موجود در هوش مصنوعی Azure برای ساخت برنامه های کاربردی ایمن و قابل اعتمادتر استفاده کنند.
همچنین بخوانید: تله پورت از دیدگاه علمی و آینده آن
Microsoft آیا Phi جایگزین مدلهای نوع ChatGPT میشود؟
اصلا. مدلهای زبان کوچک (SLM)، حتی زمانی که بر روی دادههای با کیفیت بالا آموزش داده میشوند، محدودیتهای خود را دارند و برای یادگیری عمیق طراحی نشدهاند. مدلهای زبان بزرگ (LLM) به دلیل اندازه و قدرت محاسباتیشان از SLM در استدلال پیچیده بهتر عمل میکنند. LLM ها به ویژه در زمینه هایی مانند کشف دارو مفید هستند و خواهند بود، جایی که باید در مجموعه های وسیعی از مقالات علمی جستجو کرد و الگوهای پیچیده را تجزیه و تحلیل کرد. از سوی دیگر، SLM را می توان برای کارهای ساده تری مانند خلاصه کردن نکات اصلی یک سند متنی طولانی، ایجاد محتوا یا تقویت ربات های چت خدمات مشتری استفاده کرد.
Microsoftاو گفت، در حال حاضر از مجموعههای مدل ترکیبی به صورت داخلی استفاده میکند، جایی که LLM حرف اول را میزند و پرس و جوهای خاصی را که به قدرت محاسباتی کمتری نیاز دارند به سمت SLM هدایت میکند، در حالی که خود جستارهای پیچیدهتر دیگر را مدیریت میکند. Phi برای محاسبات بر روی دستگاهها، بدون استفاده از ابر قرار داده شده است. با این حال، هنوز بین مدلهای زبان کوچک و سطح هوشی که میتوان با مدلهای بزرگ در فضای ابری به دست آورد، فاصلهای وجود خواهد داشت. این شکاف، به لطف توسعه مداوم LLM، بعید است به این زودی ها از بین برود.
Phi-3 هنوز توسط احزاب مستقل خارجی تأیید نشده است. Microsoft گاهی اوقات در مورد 25 برابر راندمان یا بهره وری انرژی در موارد شدید در مقایسه با رقبا صحبت می کند که کاملاً شگفت انگیز به نظر می رسد. اگرچه از سوی دیگر نمی توان فراموش کرد که این سال ها گذشته است Microsoft ما را کمی از این واقعیت که یک رهبر آشکار در نوآوری های IT است، دور کرد و شاید به همین دلیل است که ما واقعاً به آن اعتقاد نداریم. برنامه های مبتنی بر هوش مصنوعی که به جای تولید، فورا پاسخ می دهند و به صورت آفلاین اجرا می شوند؟ این اوج شایسته انقلاب کنونی خواهد بود. متاسفانه یک مشکل کلیدی وجود دارد.
همچنین بخوانید: همه چیز درباره تراشه Neuralink Telepathy: چیست و چگونه کار می کند
Phi-3 از Microsoft فقط انگلیسی می فهمد
Phi-3 پتابایتهایی را که به صورت انبوه به سمت آن پرتاب میشد، بلعید. آموزش دقیق و دقیق مدل شامل یک مشکل جزئی است. Phi-3 با اطلاعات به زبان انگلیسی آموزش دیده است و هنوز هیچ ایده ای از زبان دیگری ندارد. نه تنها اوکراینی، بلکه آلمانی، اسپانیایی، فرانسوی یا چینی. البته این امر جذابیت آن را برای اکثر کاربران در سراسر جهان بسیار کاهش می دهد.
ولی در Microsoft اطمینان داد که کار روی توسعه و بهبود آن در حال انجام است. اگرچه نباید خود را با این واقعیت فریب دهید که بازار اوکراین برای هر یک از شرکت های بزرگ اولویت دارد. بنابراین، برای پشتیبانی از زبان اوکراینی باید مدت زیادی صبر کنیم. اما این واقعیت هرگز علاقه مندان و کسانی را که می خواهند با پیشرفت همراه باشند متوقف نکرده است.
همچنین بخوانید: