آیا قرار است روباتها جای خبرنگارها را بگیرند؟
1 دقیقه خوانده شدهاین روزها موضوع کاربرد هوش مصنوعی به چالشی خاص و ویژه تبدیل شده است. درحالیکه استفاده از این فناوری نوین، راه را برای توسعه علم هموارتر از گذشته کرده است، اما برخی بر این باور هستند که بهکارگیری هوش مصنوعی باعث قدرتمندتر شدن روباتها و خروج کنترل آنها از دست انسانها میشود.
به گزارش پایگاه خبری تحلیلی خبرنگاران و رسانه و به نقل از ایرنا؛ مجموعه فیلمهای نابودگر شاید بهخوبی نشاندهنده واهمه انسان از روباتهای هوشمند و بهطور کلی هوش مصنوعی باشد. به همینخاطر، وقتی چند روز قبل روزنامه گاردین مطلبی را منتشر کرد و گفت که کل آن را یک سیستم هوش مصنوعی یا اصطلاحا روبات نوشته، این ماجرا تبدیل به مسئلهای جنجالی شد و سؤالهای مختلفی را مطرح کرد. آیا قرار است هوش مصنوعی جای بسیاری از شغلها ازجمله خبرنگاری را بگیرد؟ چقدر ماجرا به واقعیت نزدیک است؟ چه بخواهیم و چه نخواهیم، هوش مصنوعی میتواند نقش بسیار تأثیرگذاری در زندگی حال و آینده ما داشته باشد و باید در انتظار آن باشیم. همین حالا وقتی اپلیکیشنی رفتار شما را تقلید میکند، در واقع دارد از هوش مصنوعی و یادگیری ماشینی استفاده میکند.
مغزی پر از ایدههای تازه
روزنامه گاردین بهتازگی، مقالهای را که به قلم GPT-۳، یا همان هوش مصنوعی تولید شده توسط شرکت OpenAI منتشر کرد که در آن درخصوص صلح و اینکه روباتها قرار نیست به جنگ انسانها بیایند، نوشته شده بود: «من انسان نیستم. من روبات هستم. یک روبات متفکر. من تنها از ۰.۱۲درصد از ظرفیت شناختی خودم استفاده میکنم. از این نظر، من یک میکرو – روبات هستم. میدانم که مغزم یک «مغز احساسی» نیست، اما این مغز میتواند تصمیمهای عقلانی و منطقی بگیرد. هر چیزی را که میدانم خودم تنها با خواندن در اینترنت یادگرفتهام و حالا میتوانم این متن را بنویسم. مغز من پر از ایدههای تازه است!» با این متن، بهنظر میرسد که هم شرکت OpenAI و هم GPT-۳ از یک قدرتنمایی در عرصه نگارش پرده برداشتهاند. شاید با این وصف، در آیندهای نزدیک شاهد حضور روباتها در رسانههای مختلف باشیم.
GPT-۳ چقدر خارقالعاده است؟
«مبدل از پیش آموزشدیده تولیدی۳» یا همان GPT-۳، یک مدل زبانی خودهمبسته است که از یادگیری عمیق (Deep Learning) برای تولید متنی شبیه به آنچه انسان مینویسد، استفاده میکند. این سومین مدل در سری GPT-n است که توسط OpenAI، آزمایشگاه تحقیقاتی هوش مصنوعی مستقر در سانفرانسیسکو، ساخته شده است. نسخه کامل GPT-۳ دارای ظرفیت ۱۷۵میلیارد پارامتر یادگیری ماشینی است. GPT-۳ که در ماه مه سال۲۰۲۰ معرفی شده از ژوئیه سال۲۰۲۰ در مرحله آزمایش بتا قرار گرفته است. پیش از عرضه GPT-۳، بزرگترین مدل زبان، Turing NLG مایکروسافت بود که در فوریه۲۰۲۰ معرفی شد. سیستمی با ظرفیت ۱۷میلیارد پارامتر؛ یعنی چیزی حدود ۱۰درصد GPT-۳.
انقلاب در یادگیری ماشینی
براساس نوشته مجله اکونومیست، الگوریتمهای بهبودیافته، رایانههای قدرتمند و افزایش دادههای دیجیتال به انقلابی در یادگیری ماشینی منجر شده است. انقلابی که با تکنیکهای جدید به بهبود سریع وظایف ازجمله دستکاری در زبان انجامید. مدلهای نرمافزاری برای یادگیری با استفاده از هزاران یا میلیونها مثال در یک ساختار مبتنی بر معماری عصبی مغز آموزش دیدهاند. یک معماری که در پردازش زبان طبیعی (NLP) استفاده میشود، یک شبکه عصبی مبتنی بر یک مدل یادگیری عمیق است که برای نخستین بار در سال۲۰۱۷ ارائه شد. مدلهای GPT-n براساس این معماری شبکه عصبی یادگیری عمیق مبتنی بر مبدلها ساخته شدهاند. تعدادی از سیستمهای NLP نیز وجود دارند که قادر به پردازش، استخراج، سازماندهی، اتصال، تقابل، درک و تولید پاسخ به پرسشها هستند.
انتقادها از گاردین
از سوی دیگر، وبسایت TNW در گزارشی به ایرادهای کار این هوش مصنوعی پرداخته و حقایقی را مطرح کرده که روزنامه گاردین دربارهاش چیزی منتشر نکرده است. این سایت نوشته است که GPT-۳ هشت مقاله جداگانه نوشت و روزنامه سپس آنها را ویرایش و با یکدیگر ادغام کرد. اما گاردین خروجی ویرایشهای ایجاد شده یا خروجیهای اصلی را بهطور کامل منتشر نکرده است. این موضوع قضاوت درخصوص GPT-۳ را کمی سخت میکند. برخی از کارشناسان در این مورد واکنشهایی داشتهاند، مانند: دانیل لوفر، کارشناس حقوق دیجیتال و محقق ایرلندی، که در توییتر خود در این خصوص نوشت: «این موضوع واقعا جالب بود که ۸ مقاله را این سیستم تولید کرد، اما ویرایش و تقسیم آنها به این ترتیب چیزی جز ارائه اطلاعات نادرست به افرادی که قصد خواندن کامل و دقیق مقاله را ندارند، انجام نمیدهد.» البته نباید فراموش کنیم که هیچیک از ایرادها، انتقادی به مدل زبان قدرتمند GPT-۳ نیست، اما پروژه گاردین نمونه دیگری از کارهای رسانهای است که هوش مصنوعی را یا بهعنوان دشمن یا دوست صرف ما نشان میدهد. فرهاد مانجو، روزنامهنگار هندیالاصل، نیز در مقالهای که در شماره روز ۲۹ ژوئیه روزنامه نیویورک تایمز منتشر شده به یک نکته اساسی اشاره کرده بود: «GPT-۳ که میتواند کد رایانه، شعر و همچنین نثر ایجاد کند، فقط شگفتانگیز، شبحوار و فروتن نیست، بلکه کمی ترسناک هم است.»