🧠هوش مصنوعی فاقد یادگیری مستقل است، هیچ تهدیدی وجود ندارد
📆12 آگوست 2024
🏢منبع: دانشگاه باث
🔻خلاصه: تحقیقات جدید نشان میدهد که مدلهای زبان بزرگ (LLM) مانند ChatGPT نمیتوانند بهطور مستقل یاد بگیرند یا مهارتهای جدیدی را بدون دستورالعملهای صریح به دست آورند، و آنها را قابل پیشبینی و کنترل میکند. این مطالعه ترس از توسعه تواناییهای استدلال پیچیده این مدلها را از بین میبرد و تأکید میکند که اگرچه LLMها میتوانند زبانی پیچیده تولید کنند، اما بعید است که تهدیدات وجودی ایجاد کنند. با این حال، سوء استفاده احتمالی از هوش مصنوعی، مانند تولید اخبار جعلی، همچنان نیازمند توجه است.
🔻تیم تحقیقاتی به این نتیجه رسیدند که LLM ها - که بر روی مجموعه داده های بزرگتر آموزش می بینند - می توانند بدون نگرانی های ایمنی به کار خود ادامه دهند، اگرچه این فناوری همچنان می تواند مورد سوء استفاده قرار گیرد.
🔻با رشد، این مدلها احتمالاً زبان پیچیدهتری تولید میکنند و در پیروی از دستورات صریح و دقیق بهتر میشوند، اما بعید است که مهارتهای استدلال پیچیدهتری کسب کنند.
🔻دکتر هاریش طیار مدابوشی، دانشمند کامپیوتر در دانشگاه علوم پزشکی، گفت: روایت غالب که این نوع هوش مصنوعی تهدیدی برای بشریت است، از پذیرش و توسعه گسترده این فناوریها جلوگیری میکند و همچنین توجه را از موضوعات واقعی که نیاز به تمرکز ما دارند منحرف میکند. بات و یکی از نویسندگان مطالعه جدید در مورد "توانایی های اضطراری" LLM.
🔻تیم تحقیقاتی مشترک، به سرپرستی پروفسور ایرینا گوریویچ در دانشگاه فنی دارمشتات در آلمان، آزمایشهایی را برای آزمایش توانایی LLM در تکمیل وظایفی که مدلها قبلاً هرگز با آنها مواجه نشده بودند، انجام دادند - به اصطلاح تواناییهای نوظهور.
🧠 @Neuroscience_New
🔻به عنوان مثال، LLM ها می توانند به سؤالاتی در مورد موقعیت های اجتماعی پاسخ دهند بدون اینکه به طور صریح برای انجام این کار آموزش ببینند یا برنامه ریزی شده باشند. در حالی که تحقیقات قبلی نشان میدهد که این محصول «دانستن» مدلها در مورد موقعیتهای اجتماعی است، محققان نشان دادند که در واقع نتیجه مدلهایی است که از توانایی شناخته شده LLM برای تکمیل وظایف بر اساس چند مثال ارائه شده به آنها استفاده میکنند. به عنوان «یادگیری درون متنی» (ICL).
🔻از طریق هزاران آزمایش، این تیم نشان داد که ترکیبی از توانایی LLM برای پیروی از دستورالعمل ها (ICL)، حافظه و مهارت زبانی می تواند قابلیت ها و محدودیت های نشان داده شده توسط LLM ها را توضیح دهد.
🧠 @Neuroscience_New
🔻دکتر طیار مدابوشی گفت: ترس این بود که با بزرگتر شدن و بزرگتر شدن مدلها، بتوانند مشکلات جدیدی را حل کنند که در حال حاضر نمیتوانیم آنها را پیشبینی کنیم، که این خطر را ایجاد میکند که این مدلهای بزرگتر ممکن است تواناییهای خطرناکی از جمله استدلال و برنامهریزی به دست آورند.
🔻این موضوع بحث های زیادی را برانگیخته است - به عنوان مثال، در نشست ایمنی هوش مصنوعی سال گذشته در بلچلی پارک، که در مورد آن از ما نظر خواسته شد - اما مطالعه ما نشان می دهد که ترس از کنار رفتن یک مدل و انجام کاری کاملا غیرمنتظره، نوآورانه و بالقوه خطرناک معتبر نیست.
🧠 @Neuroscience_New
🔻"نگرانی در مورد تهدید وجودی ناشی از LLM به افراد غیر متخصص محدود نمی شود و توسط برخی از محققان برتر هوش مصنوعی در سراسر جهان بیان شده است."
🔻با این حال، دکتر طیار مدابوشی معتقد است که این ترس بیاساس است زیرا آزمایشهای محققان به وضوح عدم وجود تواناییهای استدلالی پیچیده در LLM را نشان میدهد.
🧠 @Neuroscience_New
🔻او گفت: «در حالی که پرداختن به پتانسیل موجود برای سوء استفاده از هوش مصنوعی، مانند ایجاد اخبار جعلی و افزایش خطر تقلب، مهم است، وضع مقررات بر اساس تهدیدهای وجودی درک شده، زودرس است.
🔻مهمتر از همه، معنای این موضوع برای کاربران نهایی این است که اتکا به LLM برای تفسیر و انجام کارهای پیچیده که نیاز به استدلال پیچیده بدون دستورالعمل صریح دارند، احتمالاً یک اشتباه است. در عوض، کاربران احتمالاً از تعیین صریح آنچه که مدلها باید انجام دهند و ارائه مثالهایی در صورت امکان برای همه کارها به جز سادهترین کارها، سود میبرند.
🧠 @Neuroscience_New
🔻پروفسور گوریویچ افزود: «... نتایج ما به این معنا نیست که هوش مصنوعی اصلاً یک تهدید نیست. در عوض، ما نشان میدهیم که ظهور ادعایی مهارتهای تفکر پیچیده مرتبط با تهدیدات خاص توسط شواهد پشتیبانی نمیشود و ما میتوانیم فرآیند یادگیری LLM را به خوبی کنترل کنیم.
🔗 منبع:
https://neurosciencenews.com/ai-existential-threat-27543/
ترجمه مقاله NU493
؛--------------------------------------
🧠 Telegram: @Neuroscience_New
👥 Group: @PortalRavan
instagram.com/Neuroscience_New
📆12 آگوست 2024
🏢منبع: دانشگاه باث
🔻خلاصه: تحقیقات جدید نشان میدهد که مدلهای زبان بزرگ (LLM) مانند ChatGPT نمیتوانند بهطور مستقل یاد بگیرند یا مهارتهای جدیدی را بدون دستورالعملهای صریح به دست آورند، و آنها را قابل پیشبینی و کنترل میکند. این مطالعه ترس از توسعه تواناییهای استدلال پیچیده این مدلها را از بین میبرد و تأکید میکند که اگرچه LLMها میتوانند زبانی پیچیده تولید کنند، اما بعید است که تهدیدات وجودی ایجاد کنند. با این حال، سوء استفاده احتمالی از هوش مصنوعی، مانند تولید اخبار جعلی، همچنان نیازمند توجه است.
🔻تیم تحقیقاتی به این نتیجه رسیدند که LLM ها - که بر روی مجموعه داده های بزرگتر آموزش می بینند - می توانند بدون نگرانی های ایمنی به کار خود ادامه دهند، اگرچه این فناوری همچنان می تواند مورد سوء استفاده قرار گیرد.
🔻با رشد، این مدلها احتمالاً زبان پیچیدهتری تولید میکنند و در پیروی از دستورات صریح و دقیق بهتر میشوند، اما بعید است که مهارتهای استدلال پیچیدهتری کسب کنند.
🔻دکتر هاریش طیار مدابوشی، دانشمند کامپیوتر در دانشگاه علوم پزشکی، گفت: روایت غالب که این نوع هوش مصنوعی تهدیدی برای بشریت است، از پذیرش و توسعه گسترده این فناوریها جلوگیری میکند و همچنین توجه را از موضوعات واقعی که نیاز به تمرکز ما دارند منحرف میکند. بات و یکی از نویسندگان مطالعه جدید در مورد "توانایی های اضطراری" LLM.
🔻تیم تحقیقاتی مشترک، به سرپرستی پروفسور ایرینا گوریویچ در دانشگاه فنی دارمشتات در آلمان، آزمایشهایی را برای آزمایش توانایی LLM در تکمیل وظایفی که مدلها قبلاً هرگز با آنها مواجه نشده بودند، انجام دادند - به اصطلاح تواناییهای نوظهور.
🧠 @Neuroscience_New
🔻به عنوان مثال، LLM ها می توانند به سؤالاتی در مورد موقعیت های اجتماعی پاسخ دهند بدون اینکه به طور صریح برای انجام این کار آموزش ببینند یا برنامه ریزی شده باشند. در حالی که تحقیقات قبلی نشان میدهد که این محصول «دانستن» مدلها در مورد موقعیتهای اجتماعی است، محققان نشان دادند که در واقع نتیجه مدلهایی است که از توانایی شناخته شده LLM برای تکمیل وظایف بر اساس چند مثال ارائه شده به آنها استفاده میکنند. به عنوان «یادگیری درون متنی» (ICL).
🔻از طریق هزاران آزمایش، این تیم نشان داد که ترکیبی از توانایی LLM برای پیروی از دستورالعمل ها (ICL)، حافظه و مهارت زبانی می تواند قابلیت ها و محدودیت های نشان داده شده توسط LLM ها را توضیح دهد.
🧠 @Neuroscience_New
🔻دکتر طیار مدابوشی گفت: ترس این بود که با بزرگتر شدن و بزرگتر شدن مدلها، بتوانند مشکلات جدیدی را حل کنند که در حال حاضر نمیتوانیم آنها را پیشبینی کنیم، که این خطر را ایجاد میکند که این مدلهای بزرگتر ممکن است تواناییهای خطرناکی از جمله استدلال و برنامهریزی به دست آورند.
🔻این موضوع بحث های زیادی را برانگیخته است - به عنوان مثال، در نشست ایمنی هوش مصنوعی سال گذشته در بلچلی پارک، که در مورد آن از ما نظر خواسته شد - اما مطالعه ما نشان می دهد که ترس از کنار رفتن یک مدل و انجام کاری کاملا غیرمنتظره، نوآورانه و بالقوه خطرناک معتبر نیست.
🧠 @Neuroscience_New
🔻"نگرانی در مورد تهدید وجودی ناشی از LLM به افراد غیر متخصص محدود نمی شود و توسط برخی از محققان برتر هوش مصنوعی در سراسر جهان بیان شده است."
🔻با این حال، دکتر طیار مدابوشی معتقد است که این ترس بیاساس است زیرا آزمایشهای محققان به وضوح عدم وجود تواناییهای استدلالی پیچیده در LLM را نشان میدهد.
🧠 @Neuroscience_New
🔻او گفت: «در حالی که پرداختن به پتانسیل موجود برای سوء استفاده از هوش مصنوعی، مانند ایجاد اخبار جعلی و افزایش خطر تقلب، مهم است، وضع مقررات بر اساس تهدیدهای وجودی درک شده، زودرس است.
🔻مهمتر از همه، معنای این موضوع برای کاربران نهایی این است که اتکا به LLM برای تفسیر و انجام کارهای پیچیده که نیاز به استدلال پیچیده بدون دستورالعمل صریح دارند، احتمالاً یک اشتباه است. در عوض، کاربران احتمالاً از تعیین صریح آنچه که مدلها باید انجام دهند و ارائه مثالهایی در صورت امکان برای همه کارها به جز سادهترین کارها، سود میبرند.
🧠 @Neuroscience_New
🔻پروفسور گوریویچ افزود: «... نتایج ما به این معنا نیست که هوش مصنوعی اصلاً یک تهدید نیست. در عوض، ما نشان میدهیم که ظهور ادعایی مهارتهای تفکر پیچیده مرتبط با تهدیدات خاص توسط شواهد پشتیبانی نمیشود و ما میتوانیم فرآیند یادگیری LLM را به خوبی کنترل کنیم.
🔗 منبع:
https://neurosciencenews.com/ai-existential-threat-27543/
ترجمه مقاله NU493
؛--------------------------------------
🧠 Telegram: @Neuroscience_New
👥 Group: @PortalRavan
instagram.com/Neuroscience_New