Root Nationاستاتفن آوری هاشبکه های عصبی چیست و چگونه کار می کنند؟

شبکه های عصبی چیست و چگونه کار می کنند؟

-

امروز سعی خواهیم کرد بفهمیم که شبکه های عصبی چیست، چگونه کار می کنند و نقش آنها در ایجاد هوش مصنوعی چیست.

شبکه های عصبی. این عبارت را تقریباً همه جا می شنویم. کار به جایی می رسد که شبکه های عصبی را حتی در یخچال نیز خواهید یافت (این یک شوخی نیست). شبکه های عصبی به طور گسترده توسط الگوریتم های یادگیری ماشینی استفاده می شوند که امروزه نه تنها در رایانه ها و تلفن های هوشمند، بلکه در بسیاری از دستگاه های الکترونیکی دیگر، به عنوان مثال، در لوازم خانگی نیز یافت می شوند. و آیا تا به حال فکر کرده اید که این شبکه های عصبی چیست؟

نگران نباشید، این یک سخنرانی دانشگاهی نخواهد بود. انتشارات زیادی از جمله به زبان اوکراینی وجود دارد که بسیار حرفه ای و قابل اعتماد این موضوع را در زمینه علوم دقیق توضیح می دهند. چنین نشریاتی بیش از ده سال قدمت دارند. چگونه ممکن است که این نشریات قدیمی همچنان مرتبط باشند؟ واقعیت این است که مبانی شبکه های عصبی تغییر نکرده است و خود مفهوم - یک مدل ریاضی از یک نورون مصنوعی - در طول جنگ جهانی دوم ایجاد شد.

شبکه های عصبی چیست و چگونه کار می کنند؟

اینترنت امروزی به طور غیرقابل مقایسه ای پیشرفته تر از زمان ارسال اولین ایمیل است. پایه های اینترنت، پروتکل های بنیادی، از همان ابتدای ایجاد آن وجود داشت. هر مفهوم پیچیده ای بر پایه سازه های قدیمی ساخته شده است. در مورد مغز ما هم همین‌طور است، جوان‌ترین قشر مغز بدون قدیمی‌ترین عنصر تکاملی قادر به عملکرد نیست: ساقه مغز، که از زمان‌هایی بسیار قدیمی‌تر از وجود گونه‌های ما در این سیاره در سر ما بوده است.

آیا من شما را کمی گیج کردم؟ پس بیایید با جزئیات بیشتر درک کنیم.

همچنین جالب: ChatGPT: دستورالعمل های ساده برای استفاده

شبکه های عصبی چیست؟

شبکه مجموعه ای از عناصر معین است. این ساده ترین رویکرد در ریاضیات، فیزیک یا فناوری است. اگر یک شبکه کامپیوتری مجموعه ای از کامپیوترهای به هم پیوسته باشد، شبکه عصبی به وضوح مجموعه ای از نورون ها است.

شبکه های عصبی

با این حال، این عناصر حتی از نظر پیچیدگی با سلول های عصبی مغز و سیستم عصبی ما قابل مقایسه نیستند، اما در سطح معینی از انتزاع، برخی از ویژگی های یک نورون مصنوعی و یک نورون بیولوژیکی مشترک هستند. اما لازم به یادآوری است که یک نورون مصنوعی مفهومی بسیار ساده تر از همتای بیولوژیکی خود است که ما هنوز همه چیز را در مورد آن نمی دانیم.

- تبلیغات -

همچنین بخوانید: 7 جالب ترین استفاده از ChatGPT

ابتدا یک نورون مصنوعی وجود داشت

اولین مدل ریاضی یک نورون مصنوعی در سال 1943 (بله، این اشتباه نیست، در طول جنگ جهانی دوم) توسط دو دانشمند آمریکایی به نام‌های وارن مک‌کالوچ و والتر پیتس ساخته شد. آنها موفق به انجام این کار بر اساس یک رویکرد بین رشته ای، ترکیب دانش پایه فیزیولوژی مغز (به یاد داشته باشید زمانی که این مدل ایجاد شد)، ریاضیات و رویکرد جوان آن زمان IT (آنها، در میان چیزهای دیگر، از نظریه محاسبه آلن تورینگ استفاده کردند. ). مدل نورون مصنوعی McCulloch-Pitts یک مدل بسیار ساده است، دارای ورودی های زیادی است که در آن اطلاعات ورودی از وزن ها (پارامترها) عبور می کند که مقادیر آنها رفتار نورون را تعیین می کند. نتیجه به یک خروجی منفرد فرستاده می شود (نمودار نورون مک کالوخ-پیتس را ببینید).

شبکه های عصبی
طرح یک نورون مصنوعی 1. نورون هایی که سیگنال های خروجی آنها به ورودی یک نورون معین وارد می شود 2. جمع کننده سیگنال های ورودی 3. ماشین حساب تابع انتقال 4. نورون هایی که سیگنال یک نورون معین به ورودی های آنها اعمال می شود. ωi - وزن سیگنال های ورودی

چنین ساختار درخت مانندی با یک نورون بیولوژیکی مرتبط است، زیرا وقتی به نقاشی‌هایی فکر می‌کنیم که سلول‌های عصبی بیولوژیکی را نشان می‌دهند، ساختار درخت مانند دندریت‌ها است که به ذهن متبادر می‌شود. با این حال، نباید تسلیم این توهم شد که یک نورون مصنوعی حداقل تا حدودی به یک سلول عصبی واقعی نزدیک است. این دو محقق، نویسندگان اولین نورون مصنوعی، موفق شدند نشان دهند که هر تابع قابل محاسبه را می توان با استفاده از شبکه ای از نورون های به هم پیوسته محاسبه کرد. با این حال، به یاد داشته باشیم که این مفاهیم اولیه تنها به عنوان ایده هایی خلق شدند که فقط «روی کاغذ» وجود داشتند و تفسیر واقعی در قالب تجهیزات عملیاتی نداشتند.

همچنین بخوانید: درباره کامپیوترهای کوانتومی به زبان ساده

از مدل گرفته تا پیاده سازی های نوآورانه

مک کالوچ و پیتس یک مدل نظری ایجاد کردند، اما ایجاد اولین شبکه عصبی واقعی باید بیش از ده سال صبر می کرد. خالق آن یکی دیگر از پیشگامان تحقیقات هوش مصنوعی، فرانک روزنبلات در نظر گرفته می شود، که در سال 1957 شبکه Mark I Perceptron را ایجاد کرد، و شما خودتان نشان دادید که به لطف این ساختار، ماشین توانایی قبلاً ذاتی فقط برای حیوانات و انسان ها را به دست آورد: می تواند یاد بگیرد. با این حال، ما اکنون می دانیم که در واقع دانشمندان دیگری بودند که به این ایده رسیدند که یک ماشین می تواند یاد بگیرد، از جمله قبل از روزنبلات.

پرسپترون مارک I

بسیاری از محققین و پیشگامان علوم کامپیوتر در دهه 1950 به این ایده رسیدند که چگونه یک ماشین کاری را انجام دهد که به تنهایی قادر به انجام آن نیست. به عنوان مثال، آرتور ساموئل برنامه ای را توسعه داد که با یک انسان چکرز بازی می کرد، آلن نیول و هربرت سایمون برنامه ای ایجاد کردند که می توانست به طور مستقل قضایای ریاضی را اثبات کند. حتی قبل از ایجاد اولین شبکه عصبی روزنبلات، دو پیشگام دیگر تحقیقات در زمینه هوش مصنوعی، ماروین مینسکی و دین ادموندز، در سال 1952، یعنی حتی قبل از ظهور پرسپترون روزنبلات، ماشینی به نام SNARC (Stochastic Neural) ساختند. ماشین حساب تقویتی آنالوگ) - تقویت کننده ماشین حساب آنالوگ عصبی تصادفی، که توسط بسیاری به عنوان اولین کامپیوتر شبکه عصبی تصادفی در نظر گرفته می شود. لازم به ذکر است که SNARC هیچ ارتباطی با کامپیوترهای مدرن نداشت.

SNARC

این ماشین قدرتمند با استفاده از بیش از 3000 لوله الکترونیکی و مکانیزم خلبان خودکار یدکی از یک بمب افکن B-24، توانست عملکرد 40 نورون را شبیه سازی کند که برای شبیه سازی ریاضی جستجوی یک موش برای خروج از پیچ و خم کافی بود. . البته موش وجود نداشت، فقط یک فرآیند کسر و یافتن راه حل بهینه بود. این خودرو بخشی از دکترای ماروین مینسکی بود.

شبکه آدالین

پروژه جالب دیگر در زمینه شبکه های عصبی، شبکه ADALINE بود که در سال 1960 توسط برنارد ویترو توسعه یافت. بنابراین، می‌توان این سوال را مطرح کرد: از آنجایی که بیش از نیم قرن پیش، محققان پایه‌های نظری شبکه‌های عصبی را می‌شناختند و حتی اولین پیاده‌سازی‌های کاری چنین چارچوب‌های محاسباتی را ایجاد کردند، چرا تا قرن بیست و یکم زمان زیادی طول کشید. ایجاد راه حل های واقعی بر اساس شبکه های عصبی؟ پاسخ یکی است: قدرت محاسباتی ناکافی، اما این تنها مانع نبود.

شبکه های عصبی

اگرچه در دهه‌های 1950 و 1960، بسیاری از پیشگامان هوش مصنوعی مجذوب امکانات شبکه‌های عصبی بودند و برخی از آنها پیش‌بینی کردند که ماشینی معادل مغز انسان تنها ده سال با ما فاصله دارد. امروز خواندن این حتی خنده دار است، زیرا ما هنوز حتی به ساخت ماشینی معادل مغز انسان نزدیک نشده ایم و هنوز با حل این کار فاصله داریم. به سرعت مشخص شد که منطق اولین شبکه های عصبی هم جذاب و هم محدود بود. اولین پیاده‌سازی هوش مصنوعی با استفاده از نورون‌های مصنوعی و الگوریتم‌های یادگیری ماشینی قادر به حل طیف محدودی از وظایف بودند.

با این حال، وقتی نوبت به فضاهای وسیع‌تر و حل یک چیز واقعاً جدی می‌رسد، مانند تشخیص الگو و تصویر، ترجمه همزمان، تشخیص گفتار و دست‌خط و غیره، یعنی کارهایی که امروزه رایانه‌ها و هوش مصنوعی می‌توانند انجام دهند، معلوم شد که اولین پیاده سازی شبکه های عصبی به سادگی قادر به انجام این کار نبودند. چرا اینطور است؟ پاسخ توسط تحقیقات ماروین مینسکی (بله، همان از SNARC) و سیمور پیپرت داده شد که در سال 1969 محدودیت های منطق پرسپترون را ثابت کرد و نشان داد که افزایش قابلیت های شبکه های عصبی ساده صرفاً به دلیل مقیاس بندی کارساز نیست. یک مانع دیگر، اما بسیار مهم وجود داشت - قدرت محاسباتی موجود در آن زمان برای شبکه‌های عصبی بسیار کم بود که نمی‌توانستند آنطور که در نظر گرفته شده بود استفاده شوند.

همچنین جالب:

- تبلیغات -

رنسانس شبکه های عصبی

در دهه‌های 1970 و 1980، شبکه‌های عصبی عملاً فراموش شدند. تا پایان قرن گذشته بود که قدرت محاسباتی موجود آنقدر زیاد شد که مردم شروع به بازگشت به آن و توسعه قابلیت های خود در این زمینه کردند. پس از آن بود که توابع و الگوریتم های جدیدی ظاهر شدند که قادر به غلبه بر محدودیت های اولین شبکه های عصبی ساده بودند. پس از آن بود که ایده یادگیری ماشین عمیق شبکه های عصبی چندلایه مطرح شد. در واقع چه اتفاقی برای این لایه ها می افتد؟ امروزه تقریباً تمام شبکه های عصبی مفیدی که در محیط ما کار می کنند چند لایه هستند. ما یک لایه ورودی داریم که وظیفه آن دریافت داده ها و پارامترهای ورودی (وزن) است. تعداد این پارامترها بسته به پیچیدگی مسئله محاسباتی که باید توسط شبکه حل شود، متفاوت است.

شبکه های عصبی

علاوه بر این، ما به اصطلاح "لایه های پنهان" داریم - اینجا جایی است که تمام "جادو" مرتبط با یادگیری ماشین عمیق اتفاق می افتد. این لایه های پنهان هستند که توانایی این شبکه عصبی در یادگیری و انجام محاسبات لازم را بر عهده دارند. در نهایت، آخرین عنصر لایه خروجی است، یعنی لایه ای از شبکه عصبی که نتیجه مطلوب را می دهد، در این مورد: دست خط شناخته شده، چهره، صدا، تصویر تشکیل شده بر اساس توضیحات متنی، نتیجه تجزیه و تحلیل توموگرافی تصویر تشخیصی و موارد دیگر.

همچنین بخوانید: من چت بات بینگ را تست و مصاحبه کردم

شبکه های عصبی چگونه یاد می گیرند؟

همانطور که قبلاً می دانیم، نورون های منفرد در شبکه های عصبی اطلاعات را با کمک پارامترها (وزن ها) پردازش می کنند که مقادیر و اتصالات فردی به آنها اختصاص داده می شود. این وزن ها در طول فرآیند یادگیری تغییر می کنند که به شما امکان می دهد ساختار این شبکه را به گونه ای تنظیم کنید که نتیجه دلخواه را ایجاد کند. شبکه دقیقا چگونه یاد می گیرد؟ بدیهی است، باید مدام آموزش داده شود. از این جمله تعجب نکنید. ما هم داریم یاد می گیریم و این روند بی نظم نیست بلکه مرتب است. ما به آن آموزش می گوییم. در هر صورت، شبکه‌های عصبی را نیز می‌توان آموزش داد و این معمولاً با استفاده از مجموعه‌ای از ورودی‌های انتخاب‌شده مناسب انجام می‌شود که به نوعی شبکه را برای وظایفی که در آینده انجام خواهد داد، آماده می‌کند. و همه اینها مرحله به مرحله تکرار می شود، گاهی اوقات فرآیند یادگیری تا حدی شبیه به خود فرآیند آموزشی است.

به عنوان مثال، اگر وظیفه این شبکه عصبی تشخیص چهره است، روی تعداد زیادی از تصاویر حاوی چهره از قبل آموزش داده شده است. در فرآیند یادگیری، وزن ها و پارامترهای لایه های پنهان تغییر می کند. کارشناسان در اینجا از عبارت "به حداقل رساندن تابع هزینه" استفاده می کنند. تابع هزینه کمیتی است که به ما می گوید یک شبکه عصبی معین چقدر اشتباه می کند. هر چه بیشتر بتوانیم تابع هزینه را در نتیجه آموزش به حداقل برسانیم، این شبکه عصبی در دنیای واقعی عملکرد بهتری خواهد داشت. مهمترین ویژگی که هر شبکه عصبی را از یک کار برنامه ریزی شده با استفاده از الگوریتم کلاسیک متمایز می کند این است که در مورد الگوریتم های کلاسیک، برنامه نویس باید گام به گام اقداماتی را که برنامه انجام می دهد طراحی کند. در مورد شبکه های عصبی، خود شبکه قادر است به تنهایی انجام وظایف را به درستی یاد بگیرد. و هیچ کس دقیقاً نمی داند که یک شبکه عصبی پیچیده چگونه محاسبات خود را انجام می دهد.

شبکه های عصبی

امروزه، شبکه‌های عصبی به‌طور گسترده و شاید به‌طور شگفت‌انگیزی، اغلب بدون درک چگونگی عملکرد فرآیند محاسباتی در یک شبکه خاص مورد استفاده قرار می‌گیرند. نیازی به این کار نیست. برنامه نویسان از شبکه های عصبی ماشینی آماده استفاده می کنند که برای داده های ورودی از نوع خاصی آماده شده اند، آنها را به روشی که فقط برای آنها شناخته شده است پردازش می کنند و نتیجه مطلوب را ایجاد می کنند. یک برنامه نویس نیازی به دانستن نحوه عملکرد فرآیند استنتاج در یک شبکه عصبی ندارد. یعنی فرد از حجم زیادی از محاسبات، روشی برای به دست آوردن اطلاعات و پردازش آن توسط شبکه های عصبی دور می ماند. ترس های خاصی از نوع بشر در مورد مدل های هوش مصنوعی از آنجا ناشی می شود. ما به سادگی می ترسیم که روزی شبکه عصبی وظیفه خاصی را برای خود تعیین کند و به طور مستقل و بدون کمک شخصی راه هایی برای حل آن بیابد. این باعث نگرانی بشریت می شود، باعث ترس و بی اعتمادی در استفاده از الگوریتم های یادگیری ماشین می شود.

گپ gpt

این رویکرد سودگرایانه امروزه رایج است. در مورد ما هم همینطور است: ما می دانیم که چگونه فردی را در یک فعالیت خاص آموزش دهیم و می دانیم که فرآیند آموزش اگر به درستی انجام شود موثر خواهد بود. فرد مهارت های مورد نظر را کسب می کند. اما آیا دقیقاً درک می کنیم که فرآیند کسر در مغز او چگونه انجام می شود که باعث این تأثیر شده است؟ ما هیچ ایده ای نداریم.

وظیفه دانشمندان این است که تا حد امکان این مشکلات را بررسی کنند تا در صورت لزوم در خدمت و کمک ما باشند و از همه مهمتر تبدیل به یک تهدید نشوند. ما به عنوان انسان از چیزی که نمی دانیم می ترسیم.

همچنین جالب: 

Yuri Svitlyk
Yuri Svitlyk
پسر کوه های کارپات، نابغه ناشناخته ریاضیات، "وکیل"Microsoft، نوع دوست عملی، چپ-راست
- تبلیغات -
ثبت نام
اطلاع رسانی در مورد
مهمان

0 نظرات
بررسی های جاسازی شده
مشاهده همه نظرات
برای به روز رسانی مشترک شوید