جفری هینتون پیشگام هوش مصنوعی و دانشمند کامپیوتر که به پدرخوانده هوش مصنوعی معروف است، پس از استعفا از شرکت گوگل، هشدار داد که هوش مصنوعی می تواند به زودی از نظر هوش از انسان ها پیشی بگیرد و یاد بگیرد که چگونه بشر را به تنهایی نابود کند. هینتون هنگامی که استعفای خود را از گوگل اعلام کرد در بیانیه ای به عواقب وخیم هوش مصنوعی پرداخته و خواستار یک توافق جهانی مشابه به کنوانسیون سلاح های شیمیایی 1977 برای ایجاد قوانین بین المللی علیه هوش مصنوعی شده است.
جفری هینتون پیشگام هوش مصنوعی و دانشمند کامپیوتر که به پدرخوانده هوش مصنوعی معروف است، پس از استعفا از شرکت گوگل، هشدار داد که هوش مصنوعی می تواند به زودی از نظر هوش از انسان ها پیشی بگیرد و یاد بگیرد که چگونه بشر را به تنهایی نابود کند. هینتون هنگامی که استعفای خود را از گوگل اعلام کرد در بیانیه ای به عواقب وخیم هوش مصنوعی پرداخته و خواستار یک توافق جهانی مشابه به کنوانسیون سلاح های شیمیایی 1977 برای ایجاد قوانین بین المللی علیه هوش مصنوعی شده است.
جفری هینتون زنگ خطر هوش مصنوعی را به صدا درآورد
جفری هینتون یک دانشمند کامپیوتر است که به عنوان معاون برای گوگل بیش از یک دهه کار کرده است و مسئول یک پیشرفت فناوری در سال 2012 است که به عنوان پایه و اساس هوش مصنوعی فعلی مانند ChatGPT عمل می کند. او در مصاحبه ای گفته است که: آنچه فناوری هوش مصنوعی را هوشمندتر از انسان می کند، حجم عظیمی از اطلاعات است که مدل هایی مانند GPT-4 به آن ها دسترسی دارند. هوش مصنوعی صدها برابر بیشتر از انسان می داند و ممکن است الگوریتم یادگیری بسیار بهتری نسبت به انسان ها داشته باشند. هینتون استدلال می کند که GPT-4 پس از آموزش توسط محققان توانایی یادگیری اطلاعات جدید را خیلی سریع نشان داده است. در جایی که انسان ها برای یادگیری و به اشتراک گذاشتن اطلاعات با یکدیگر نیاز به زمان دارند، سیستم های هوش مصنوعی می توانند این کار را فوراً انجام دهند و این پتانسیل را برای هوش مصنوعی ایجاد می کند تا از انسان ها پیشی بگیرند همچنین او معتقد است برخی از قدرت های اول جهان می خواهند با استفاده از ربات ها جنگ های گسترده ای در کشورهای دیگر راه بیاندازند.
نگرانی جفری هینتون نسبت به هوش مصنوعی
هینتون در نگرانی های خود تنها نیست. پس از مدتی که استارت آپ تحت حمایت مایکروسافت «OpenAI» جدیدترین مدل هوش مصنوعی خود را با نام GPT-4 را در ماه مارس منتشر کرد، بیش از 1000 محقق و فناور از جمله ایلان ماسک نامه ای را امضاء کردند که در آن خواستار توقف شش ماهه توسعه هوش مصنوعی شدند. به گفته این امضاء کنندگان توسعه هوش مصنوعی می تواند خطرات عمیقی برای جامعه و آیندگان ایجاد کند. مردیث ویتاکر محقق برجسته هوش مصنوعی که در سال 2019 به دلیل ساخت پهپادهای نظامی از شرکت گوگل اخراج شد، می گوید: بزرگ ترین خطر هوش مصنوعی «آگاهی» نیست بلکه شرکت ها هستند که آن ها را کنترل می کنند و دولت ها باید نظارت خود را بر آن دقیق تر کنند.
کنترل هوش مصنوعی
حمایت دولت آمریکا برای کنترل هوش مصنوعی
اواخر هفته گذشته کاخ سفید برنامه خود را برای ترویج استفاده مسئولانه از مدل های هوش مصنوعی با تمرکز بر تحقیقات و مشارکت دولت با شرکت های فناوری اعلام کرد. جو بایدن رئیس جمهور آمریکا، 140 میلیون دلار بودجه برای راه اندازی هفت موسسه تحقیقاتی هوش مصنوعی پیشنهاد کرده است. در بیانیه مطبوعاتی کاخ سفید آمده است: هوش مصنوعی یکی از قدرتمندترین فناوری های زمان ما است اما برای استفاده از فرصت هایی که ارائه می دهد ابتدا باید خطرات آن را کاهش دهیم. بایدن به وضوح گفته است که وقتی صحبت از هوش مصنوعی به میان می آید ما باید مردم و جوامع را با حمایت از نوآوری مسئولانه ای که در خدمت منافع عمومی است در مرکز قرار دهیم و در عین حال از جامعه، امنیت و اقتصاد خود محافظت کنیم.