هشدار پدرخوانده هوش مصنوعی؛ مردم از خطر واقعی هوش مصنوعی بی خبرند!

هشدار پدرخوانده هوش مصنوعی

جفری هینتون، که به «پدرخوانده هوش مصنوعی» شهرت دارد، بار دیگر با هشداری جدی درباره آینده این فناوری خبرساز شده است. او که سال گذشته جایزه نوبل فیزیک را به خاطر نقشش در توسعه شبکه‌های عصبی دریافت کرد، معتقد است مردم هنوز از ابعاد واقعی خطرات هوش مصنوعی بی‌خبرند.

هینتون در مصاحبه‌ای تازه، از سرعت سرسام‌آور پیشرفت این فناوری ابراز نگرانی کرده و خواستار اقدامات فوری برای کنترل آن شده است. در این مقاله، به بررسی هشدارهای هینتون، خطرات بالقوه هوش مصنوعی و راهکارهای پیشنهادی او می‌پردازیم.

هینتون: مردم هنوز نفهمیده‌‎اند چه اتفاقی قرار است بیفتد!

جفری هینتون و هشدار درباره آینده هوش مصنوعی

هینتون، پیشگام حوزه یادگیری عمیق، می‌گوید مردم هنوز درک درستی از آنچه هوش مصنوعی برای آینده بشر به ارمغان می‌آورد ندارند. او که انتظار نداشت جایزه نوبل را برای کارهایش در زمینه هوش مصنوعی دریافت کند، در مصاحبه‌ای با CBCNews گفته است: «همیشه آرزو داشتم نوبل را برای کشف نحوه کار مغز انسان بگیرم، اما هنوز این راز را حل نکرده‌ام و به هر حال برنده شدم.»

هینتون تخمین می‌زند که احتمال تسلط هوش مصنوعی بر انسان بین ۱۰ تا ۲۰ درصد است، رقمی که به گفته او نباید نادیده گرفته شود. او تأکید دارد که شرکت‌های فناوری باید بخش بزرگی از منابع خود را به تحقیقات ایمنی اختصاص دهند تا از فجایع احتمالی جلوگیری شود. قوانین هوش مصنوعی در ایران نیز هنوز در مراحل ابتدایی تدوین هستند و این موضوع می‌تواند چالش‌هایی برای نظارت بر توسعه امن این فناوری ایجاد کند.

خطرات هوش مصنوعی از نگاه هینتون

هینتون معتقد است هوش مصنوعی پتانسیل بالایی برای تحول مثبت در حوزه‌هایی مثل آموزش، پزشکی و حتی مقابله با تغییرات اقلیمی دارد. با این حال، توسعه بی‌ضابطه آن می‌تواند عواقب خطرناکی داشته باشد. او هشدار می‌دهد که اگر هوش مصنوعی از هوش انسانی پیشی بگیرد، کنترل آن برای بشر دشوار خواهد بود.

هینتون در مصاحبه‌هایش مثال می‌زند که انسان‌ها مانند کودکان نوپا در برابر سیستم‌های پیشرفته هوش مصنوعی خواهند بود، با توانایی محدود برای مهار آنها. او نگران است که بدون نظارت کافی، این فناوری توسط افراد یا گروه‌های سودجو برای اهداف مخرب، مثل تولید اطلاعات جعلی یا سلاح‌های خودمختار، استفاده شود. هوش مصنوعی علی‌بابا، با مدل‌هایی مثل Qwen که در کاربردهای تجاری و چندزبانه پیشرفت کرده، نمونه‌ای از این توسعه سریع است که نیاز به چارچوب‌های ایمنی قوی دارد.

راهکارهای پیشنهادی برای کنترل هوش مصنوعی

هینتون بارها خواستار وضع قوانین سختگیرانه‌تر برای شرکت‌های فعال در حوزه هوش مصنوعی شده است. او پیشنهاد می‌کند که این شرکت‌ها باید ۲۰ تا ۳۰ درصد از منابع محاسباتی خود را به آزمایش‌هایی برای کنترل هوش مصنوعی در آینده اختصاص دهند. به گفته او، همکاری بین‌المللی بین دولت‌ها و شرکت‌های فناوری برای جلوگیری از سناریوهای فاجعه‌بار ضروری است.

هینتون معتقد است که اگرچه هوش مصنوعی هنوز از انسان باهوش‌تر نشده، اما این اتفاق ممکن است در ۵ تا ۲۰ سال آینده رخ دهد. او همچنین از رقابت شدید بین غول‌های فناوری انتقاد کرده و می‌گوید این رقابت می‌تواند ایمنی را به حاشیه ببرد. در این میان، هوش مصنوعی اپل، که در Siri و ویژگی‌های iOS با محدودیت‌های بیشتری عمل می‌کند، نمونه‌ای از رویکرد محتاطانه‌تر است، اما همچنان نیاز به بهبود دارد.

نتیجه گیری؛ هوش مصنوعی فرصت یا تهدید؟

هشدارهای هینتون نه‌تنها زنگ خطری برای صنعت فناوری، بلکه پیامی برای کل جامعه است. او معتقد است که بدون آگاهی عمومی و اقدامات پیشگیرانه، هوش مصنوعی می‌تواند به تهدیدی برای بشریت تبدیل شود. با این حال، او هنوز به پتانسیل مثبت این فناوری امیدوار است، مشروط بر اینکه با مسئولیت‌پذیری توسعه یابد. هینتون از دولت‌ها می‌خواهد که قوانین بین‌المللی برای نظارت بر هوش مصنوعی وضع کنند، مشابه آنچه در اروپا در حال شکل‌گیری است. این موضوع نشان می‌دهد که آینده هوش مصنوعی به تصمیمات امروز ما بستگی دارد.

مطالب را به اشتراک بزارید.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *