Root Nationاستاتتجزیه و تحلیلشش فرمان هوش مصنوعی

شش فرمان هوش مصنوعی

-

سال های بعدی با توسعه سریع فناوری های هوش مصنوعی مشخص خواهد شد. شاید لازم باشد چارچوب های مشخصی برای ایجاد و استفاده از هوش مصنوعی معرفی کنیم؟ آیا 6 ماه تجربه برای تنظیم یک فناوری که حتی از آزمایشگاه خارج نشده است کافی است؟ وقتی صحبت از هوش مصنوعی به میان می آید، این سوال به طور فزاینده ای از دهان کارشناسان و روزنامه نگاران می آید. صداها و فراخوان ها برای انجام اقداماتی برای تنظیم هوش مصنوعی - هم در سطح کاربر و هم در سطح توسعه پروژه - بیشتر و بیشتر شنیده می شود. تاریخچه چنین درخواست هایی از مدت ها قبل آغاز شد.

حضور همه جانبه هوش مصنوعی در فضای دیجیتال و بالاتر از همه، مدل هایی که قادر به ایجاد محتوایی هستند که با آنچه توسط انسان ها ایجاد می شود تفاوتی نداشته باشد، احساسات بسیار متفاوتی را برمی انگیزد. از یک طرف، ما گروهی از علاقه مندان داریم که آینده را در هوش مصنوعی می بینند و با وجود قابلیت های نسبتاً محدود آن (چون هوش مصنوعی فکر نمی کند و اغلب فقط اطلاعات را از اینترنت می گیرد)، از سپردن بسیاری از وظایف به آن نمی ترسند. . در سوی دیگر سد گروهی قرار دارند که نسبت به روند فعلی توسعه هوش مصنوعی ابراز تردید و نگرانی می کنند.

فرضیه هوش مصنوعی

پل ارتباطی بین این دو گروه، محققان هوش مصنوعی هستند که از یک سو، نمونه‌های متعددی از تأثیر مثبت هوش مصنوعی بر واقعیت اطراف را ذکر می‌کنند. در عین حال، آنها می‌دانند که هنوز خیلی زود است که روی موفقیت‌های خود استراحت کنند و یک جهش بزرگ تکنولوژیکی چالش‌های بسیاری و مسئولیت‌های بزرگی را به همراه دارد. نمونه بارز این نگرش یک گروه بین المللی از محققان هوش مصنوعی و یادگیری ماشینی به رهبری دکتر اوزلم گاریبای از دانشگاه فلوریدا مرکزی است. این نشریه 47 صفحه ای که توسط 26 دانشمند از سراسر جهان نوشته شده است، شش چالشی را که مؤسسات تحقیقاتی، شرکت ها و شرکت ها باید برای ایمن سازی مدل های خود (و نرم افزاری که از آنها استفاده می کند) برطرف کنند، شناسایی و تشریح می کند.

بله، این یک کار علمی جدی با توضیحات مهم برای درک آینده هوش مصنوعی است. هر کسی که علاقه مند است، می تواند به طور مستقل این گزارش علمی را بخوانید و خودتان نتیجه گیری کنید به عبارت ساده، دانشمندان 6 فرمان هوش مصنوعی را شناسایی کرده اند. همه پیشرفت‌ها و اقدامات هوش مصنوعی باید با آنها مطابقت داشته باشد تا برای مردم و جهان ایمن باشد.

فرضیه هوش مصنوعی

در مقاله خود که دقیقاً بر اساس این کار علمی نوشته شده است، سعی خواهم کرد اصول اصلی، قوانینی را که بر اساس آنها هوش مصنوعی وجود داشته باشد و توسعه یابد، تدوین کنم. بله، این تفسیر تقریباً رایگان من از نتیجه‌گیری‌های دانشمندان در مورد توسعه هوش مصنوعی و تلاش برای ارائه آنها در، به اصطلاح، نسخه کتاب مقدس است. اما اینگونه می خواستم شما را با این کار علمی دانشمندان محترم آشنا کنم.

همچنین جالب: ساخت هوش مصنوعی: چه کسی مسابقه را رهبری می کند؟

قانون اول: رفاه انسان

اولین فرض محققان تمرکز کار هوش مصنوعی بر رفاه انسان است. هوش مصنوعی به دلیل فقدان «ارزش‌های انسانی، عقل سلیم و اخلاق» می‌تواند به گونه‌ای عمل کند که به زوال چشمگیر رفاه انسان منجر شود. مشکلات می تواند نتیجه توانایی های مافوق بشری هوش مصنوعی باشد (به عنوان مثال، هوش مصنوعی چقدر راحت انسان ها را شکست می دهد - و نه تنها در شطرنج)، بلکه این واقعیت است که هوش مصنوعی به تنهایی فکر نمی کند، و بنابراین نمی تواند تعصبات یا سوگیری ها را "فیلتر" کند. اشتباهات آشکار

AI Postulat

- تبلیغات -

محققان خاطرنشان می کنند که اعتماد بیش از حد به فناوری های هوش مصنوعی می تواند بر رفاه افراد تأثیر منفی بگذارد. جامعه‌ای که درک کمی از نحوه عملکرد الگوریتم‌های هوش مصنوعی دارد، تمایل دارد بیش از حد به آن اعتماد کند، یا برعکس، نگرش منفی نسبت به محتوای تولید شده توسط یک مدل خاص، به‌ویژه چت‌بات‌ها دارد. با در نظر گرفتن این موارد و عوامل دیگر، تیم گاریبای خواستار قرار دادن رفاه انسان در مرکز تعاملات آینده هوش مصنوعی و انسان است.

همچنین بخوانید: ChatGPT: یک راهنمای کاربر ساده

قانون دوم: مسئولیت

مسئولیت پذیری اصطلاحی است که مدام در دنیای هوش مصنوعی با توجه به آنچه که ما از یادگیری ماشینی برای آن استفاده می کنیم و اینکه دقیقاً مدل ها و الگوریتم های هوش مصنوعی توسعه یافته و آموزش می بینیم ظاهر می شود. این تیم بین المللی تاکید می کند که طراحی، توسعه و پیاده سازی هوش مصنوعی باید منحصرا با نیت خوب انجام شود.

AI Postulat

به نظر آنها مسئولیت نه تنها در زمینه فنی، بلکه در زمینه حقوقی و اخلاقی نیز باید مورد توجه قرار گیرد. فناوری نه تنها از منظر اثربخشی، بلکه در زمینه استفاده از آن نیز باید مورد توجه قرار گیرد.

"با معرفی تکنیک های پیشرفته یادگیری ماشین، درک اینکه چگونه یک تصمیم گرفته شده و چه کسی مسئول آن است، اهمیت فزاینده ای پیدا می کند.” - می نویسند محققان.

قانون سوم: رازداری

حریم خصوصی موضوعی است که در هر گفتمان در مورد فناوری بومرنگ می شود. به خصوص زمانی که همه چیز در شبکه های اجتماعی مطرح می شود. با این حال، این برای هوش مصنوعی بسیار مهم است زیرا بدون پایگاه داده وجود ندارد. و پایگاه داده چیست؟

دانشمندان آن‌ها را به‌عنوان «انتزاعی از بلوک‌های ساختمانی اساسی که نحوه‌ی دید ما از جهان را تشکیل می‌دهند» توصیف می‌کنند. این بلوک ها معمولاً ارزش های دنیوی هستند: رنگ ها، شکل ها، بافت ها، فاصله ها، زمان. در حالی که هوش مصنوعی باریک بر روی یک هدف واحد متمرکز شده است، مانند درجه باز شدن شاتر در شدت نور معین، از داده های عینی در دسترس عموم استفاده می کند، هوش مصنوعی در کاربردهای گسترده تر (برای مثال، در اینجا، مدل های تبدیل متن به تصویر مانند Midjourney، یا مدل های زبانی مانند ChatGPT ) می توانند از داده های مربوط به افراد و ایجاد شده توسط افراد استفاده کنند. مقالات مطبوعات، کتاب ها، تصاویر و عکس های منتشر شده در اینترنت نیز باید ذکر شود. الگوریتم های هوش مصنوعی به همه چیز دسترسی دارند، زیرا ما خودمان آن را به آنها داده ایم. در غیر این صورت او چیزی نمی داند و به هیچ سوالی پاسخ نمی دهد.

AI Postulat

داده‌های کاربر اساساً بر افرادی که این داده‌ها درباره آنها جمع‌آوری می‌شود و افرادی که در سیستمی که الگوریتم‌های هوش مصنوعی در آن‌ها پیاده‌سازی خواهند شد تأثیر می‌گذارد.

بنابراین، چالش سوم به درک گسترده از حریم خصوصی و ارائه حقوقی مانند حق تنها ماندن، حق محدود کردن دسترسی به خود، حق رازداری زندگی شخصی یا تجارت، حق کنترل شخصی مربوط می شود. اطلاعات، یعنی حق محافظت از شخصیت، فردیت و حیثیت خود. همه اینها باید در الگوریتم ها نوشته شود، در غیر این صورت حریم خصوصی به سادگی وجود نخواهد داشت و الگوریتم های هوش مصنوعی می توانند در طرح های کلاهبرداری و همچنین جرایم جنایی استفاده شوند.

همچنین بخوانید: 7 روش جالب برای استفاده از ChatGPT

قانون چهارم: ساختار پروژه

هوش مصنوعی می تواند بسیار ساده و تک منظوره باشد، اما در مورد مدل های بزرگتر با ماهیت گسترده و چند وظیفه ای، مشکل تنها حریم خصوصی داده ها نیست، بلکه ساختار طراحی نیز وجود دارد.

به عنوان مثال، GPT-4، آخرین مدل هوش مصنوعی OpenAI، علیرغم اندازه و تأثیر آن بر دنیای هوش مصنوعی (و فراتر از آن)، مستندات کاملاً عمومی ندارد. یعنی ما درک درستی از اهداف نهایی برای توسعه دهندگان نداریم، آنها می خواهند در نتیجه نهایی به چه چیزی برسند. بنابراین، ما نمی توانیم به طور کامل خطرات مرتبط با استفاده از این مدل هوش مصنوعی را ارزیابی کنیم. از سوی دیگر، GPT-3 که بر روی داده های فروم 4chan آموزش دیده است، مدلی است که قطعاً نمی خواهید با آن تعامل داشته باشید. انجمن 4chan یکی از جالب ترین پدیده های اینترنت است. این نمونه ای از هرج و مرج مطلق مطلق است که در عمل با هیچ چارچوبی محدود نمی شود. اینجا جایی بود که گروه های هک مانند Anonymous یا LulzSec ایجاد شدند. این منبع بسیاری از محبوب ترین میم ها، مکانی برای بحث در مورد موضوعات بحث برانگیز و انتشار نظرات جنجالی تر است. اگرچه ایمیبورد انگلیسی زبان اشاره می‌کند که «تا اینجا قانونی است»، اما با توجه به اینکه 4chan گهگاه با رسانه‌ها از جمله محتوای نژادپرستانه، نازی و جنسیت‌گرایانه درگیر می‌شود، این موضوع تا حدودی مشکوک است.

AI Postulat

- تبلیغات -

تیم پروفسور گاری‌بای می‌خواهد هر مدل از هوش مصنوعی در چارچوب مشخصی کار کند. نه تنها به دلیل رفاه شخصی که هوش مصنوعی با او در تعامل است، بلکه به دلیل توانایی ارزیابی خطرات مرتبط با استفاده از مدل است. ساختار هر پروژه باید شامل احترام به نیازها، ارزش ها و خواسته های گروه های مختلف فرهنگی و ذینفعان باشد. فرآیند ایجاد، آموزش و تنظیم دقیق هوش مصنوعی باید بر رفاه انسان متمرکز شود و محصول نهایی - مدل هوش مصنوعی - باید بر افزایش و بهبود بهره‌وری خود جامعه انسانی متمرکز شود. مدل هایی که خطرات را نمی توان شناسایی کرد باید دسترسی محدود یا کنترل شده داشته باشند. آنها نباید تهدیدی برای بشریت باشند، بلکه برعکس، به توسعه انسان و جامعه در کل کمک کنند.

همچنین بخوانید: Twitter در دست ایلان ماسک - تهدید یا "بهبود"؟

قانون پنجم: حاکمیت و نظارت مستقل

الگوریتم های هوش مصنوعی به معنای واقعی کلمه دنیا را تنها در یک سال تغییر دادند. Bard by Google و Bing اولین بار توسط Microsoft تاثیر قابل توجهی بر سهام هر دو غول در بورس داشته است. به هر حال، آنها به رشد سهام این شرکت ها حتی در پس زمینه سهام کمک کردند Apple. ChatGPT به طور فعال توسط دانش آموزان مدرسه استفاده می شود، آنها با آن ارتباط برقرار می کنند، آن را بررسی می کنند و سؤال می پرسند. مهمترین چیز این است که او توانایی خودآموزی، اصلاح اشتباهات خود را داشته باشد. هوش مصنوعی حتی در دولت‌های برخی کشورها شروع به کار کرده است. این مورد نخست وزیر رومانی، نیکولای چوکا است مجازی استخدام کرد دستیار که او را در مورد نیازهای جامعه آگاه کند. یعنی هوش مصنوعی نقش مهمی را در زندگی ما ایفا می کند.

هوش مصنوعی

با توجه به وابستگی متقابل روزافزون بین هوش مصنوعی، انسان و محیط زیست، دانشمندان ایجاد ارگان های حاکم و نظارت مستقل بر توسعه آن را ضروری می دانند. این بدنه ها کل چرخه زندگی هوش مصنوعی را کنترل خواهند کرد: از ایده تا توسعه و اجرا. مقامات به درستی مدل های مختلف هوش مصنوعی را تعریف کرده و موارد مرتبط با هوش مصنوعی و موضوعات زندگی اجتماعی را در نظر خواهند گرفت. یعنی هوش مصنوعی می تواند موضوع پرونده های قضایی و همچنین پرونده های قضایی شود. اگرچه، البته، نه شخصاً او، بلکه توسعه دهندگان او.

همچنین بخوانید: همه چیز درباره Neuralink: آغاز جنون سایبرپانک؟

قانون ششم: تعامل انسان و هوش مصنوعی

در برنامه های هوش مصنوعی، همه می توانند چیزی برای خود پیدا کنند: تولید متن، تشخیص محتوا در تصاویر، پاسخ به سوالات، تولید تصاویر، تشخیص افراد در عکس ها، تجزیه و تحلیل داده ها. این کاربردهای متعدد نه تنها برای افرادی که سعی در تطبیق هوش مصنوعی با استانداردهای قانونی و اخلاقی دارند، نگران کننده است. بسیاری می ترسند که مدل های هوش مصنوعی از بازار کار جابجا شوند. زیرا الگوریتم‌های هوش مصنوعی قادر خواهند بود همان کار را سریع‌تر، ارزان‌تر و شاید بهتر از یک شخص انجام دهند. در عین حال، افرادی هستند که در کار خود به هوش مصنوعی متکی هستند، یعنی امروزه هوش مصنوعی یک دستیار ضروری برای آنهاست.

هوش مصنوعی

اما از مطالعاتی که دانشمندان به آنها اشاره کردند، مشخص است که جایگزینی افراد با نیروی کار مصنوعی ارزان هنوز بسیار دور است. با وجود این، آنها در حال حاضر بر نیاز به ایجاد یک سلسله مراتب دقیق تعامل بین انسان و هوش مصنوعی اصرار دارند. به نظر آنها انسان ها را باید بالاتر از هوش مصنوعی قرار داد. هوش مصنوعی باید با احترام به توانایی‌های شناختی فرد و با در نظر گرفتن احساسات، تعاملات اجتماعی، ایده‌ها، برنامه‌ریزی و تعامل با اشیا ایجاد شود. یعنی در همه شرایط این شخص است که باید بالای هوش مصنوعی بایستد، رفتار و محتوای ایجاد شده توسط مدل را کنترل کند و مسئولیت آن را بر عهده بگیرد. به عبارت ساده، حتی پیشرفته ترین هوش مصنوعی نیز باید از یک فرد اطاعت کند و از حد مجاز فراتر نرود تا به خالق آن آسیبی وارد نشود.

همچنین بخوانید: نحوه استفاده و تطبیق اوکراین از Starlink در زمان جنگ

ویزوفکی

بله، کسی خواهد گفت که دانشمندان در گزارش خود به چیز مهم و جدیدی اشاره نکرده اند. مدتهاست که همه در این مورد صحبت می کنند. اما در حال حاضر لازم است هوش مصنوعی را در چارچوبی از قوانین قرار دهیم. رسیدن به GPT-4 مانند دست گرفتن کورکورانه به سمت چاقو است. آنها اطلاعات کلیدی را از ما پنهان می کنند. همه پیشرفت‌ها در هوش مصنوعی، و به‌ویژه پروژه ChatGPT از Open AI، اغلب مرا یاد بزرگ کردن یک کودک کوچک می‌اندازد. گاهی اوقات به نظر می رسد که این یک کودک با منشاء بیگانه است. بله، یک بیگانه، اما او هنوز کودکی است که یاد می گیرد، اشتباه می کند، گاهی اوقات رفتار نامناسبی دارد، تحریک پذیر است، با والدینش بحث می کند. اگرچه خیلی سریع رشد می کند و رشد می کند.

هوش مصنوعی

بشریت ممکن است با پیشرفت خود همراه نشود و همه چیز از کنترل خارج شود. بنابراین، بشریت از قبل باید بفهمد که چرا ما همه اینها را توسعه می دهیم، اهداف نهایی را بدانیم، "والدین مسئول" باشیم، زیرا در غیر این صورت "کودک" می تواند به سادگی "والدین" خود را نابود کند.

همچنین بخوانید: 

Yuri Svitlyk
Yuri Svitlyk
پسر کوه های کارپات، نابغه ناشناخته ریاضیات، "وکیل"Microsoft، نوع دوست عملی، چپ-راست
- تبلیغات -
ثبت نام
اطلاع رسانی در مورد
مهمان

0 نظرات
بررسی های جاسازی شده
مشاهده همه نظرات
برای به روز رسانی مشترک شوید