
اریک اشمیت، مدیرعامل پیشین گوگل، در مصاحبهای با بیبیسی نسبت به خطرات فزاینده استفاده از هوش مصنوعی توسط گروههای تروریستی و دولتهای یاغی هشدار داد. او با اشاره به کشورهایی مانند کره شمالی، حکومت تهران و روسیه، این نگرانی را مطرح کرد که این فناوری میتواند برای مقاصد مخرب، از جمله ایجاد سلاحهای بیولوژیکی، مورد استفاده قرار گیرد.
هوش مصنوعی؛ ابزار توسعه یا تهدید جهانی؟
در حالی که هوش مصنوعی به عنوان ابزاری برای پیشرفت در زمینههای علمی، اقتصادی و اجتماعی شناخته میشود، کارشناسان امنیتی نگرانند که این فناوری به سلاحی در دست گروههای تروریستی یا دولتهای غیرمسئول تبدیل شود. اشمیت از احتمال سناریوهایی مانند «بن لادن دیجیتال» سخن گفت که در آن یک فرد یا گروه شرور میتواند کنترل بخشهایی از زندگی مدرن را در دست بگیرد و از آن برای ضربه زدن به جوامع استفاده کند.
نگرانیها درباره حکومت تهران و دیگر دولتهای یاغی
مدیرعامل پیشین گوگل، حکومت تهران را یکی از بازیگران بالقوهای معرفی کرد که میتواند از هوش مصنوعی برای اهداف نظامی و امنیتی خود بهره ببرد. حکومت تهران پیشتر نیز متهم به توسعه فناوریهای سایبری برای مقاصد نظامی و جاسوسی شده و استفاده از ابزارهای دیجیتال برای سرکوب داخلی و جنگ اطلاعاتی در منطقه را در دستور کار داشته است.
اظهارات اشمیت در حاشیه نشست دو روزه هوش مصنوعی در پاریس مطرح شد؛ نشستی که در آن، ۵۷ کشور از جمله هند، چین و اتحادیه اروپا، بیانیهای درباره مسیر آینده این فناوری را امضا کردند. با این حال، بریتانیا و آمریکا از امضای این توافق خودداری کردند، زیرا معتقد بودند که بیانیه مذکور وضوح عملی کافی درباره حکمرانی جهانی هوش مصنوعی نداشته و به مسائل حساس امنیتی نپرداخته است.
افزایش استفاده از هوش مصنوعی در عرصههای نظامی و امنیتی، نگرانیهای جهانی را درباره سوءاستفاده از این فناوری تشدید کرده است. هشدار اریک اشمیت نشان میدهد که بدون چارچوبهای نظارتی دقیق، این فناوری میتواند به ابزاری برای بیثباتسازی امنیت جهانی تبدیل شود. در این میان، نبود اجماع بینالمللی درباره نحوه مدیریت و کنترل هوش مصنوعی، چالشهای جدیدی را برای آینده این فناوری ایجاد کرده است.