اخباربین الملل

هشدار درباره استفاده تروریستی از هوش مصنوعی؛ چالش جدید امنیت جهانی

اریک اشمیت، مدیرعامل پیشین گوگل، در مصاحبه‌ای با بی‌بی‌سی نسبت به خطرات فزاینده استفاده از هوش مصنوعی توسط گروه‌های تروریستی و دولت‌های یاغی هشدار داد. او با اشاره به کشورهایی مانند کره شمالی، حکومت تهران و روسیه، این نگرانی را مطرح کرد که این فناوری می‌تواند برای مقاصد مخرب، از جمله ایجاد سلاح‌های بیولوژیکی، مورد استفاده قرار گیرد.

هوش مصنوعی؛ ابزار توسعه یا تهدید جهانی؟

در حالی که هوش مصنوعی به عنوان ابزاری برای پیشرفت در زمینه‌های علمی، اقتصادی و اجتماعی شناخته می‌شود، کارشناسان امنیتی نگرانند که این فناوری به سلاحی در دست گروه‌های تروریستی یا دولت‌های غیرمسئول تبدیل شود. اشمیت از احتمال سناریوهایی مانند «بن لادن دیجیتال» سخن گفت که در آن یک فرد یا گروه شرور می‌تواند کنترل بخش‌هایی از زندگی مدرن را در دست بگیرد و از آن برای ضربه زدن به جوامع استفاده کند.

نگرانی‌ها درباره حکومت تهران و دیگر دولت‌های یاغی

مدیرعامل پیشین گوگل، حکومت تهران را یکی از بازیگران بالقوه‌ای معرفی کرد که می‌تواند از هوش مصنوعی برای اهداف نظامی و امنیتی خود بهره ببرد. حکومت تهران پیش‌تر نیز متهم به توسعه فناوری‌های سایبری برای مقاصد نظامی و جاسوسی شده و استفاده از ابزارهای دیجیتال برای سرکوب داخلی و جنگ اطلاعاتی در منطقه را در دستور کار داشته است.

اظهارات اشمیت در حاشیه نشست دو روزه هوش مصنوعی در پاریس مطرح شد؛ نشستی که در آن، ۵۷ کشور از جمله هند، چین و اتحادیه اروپا، بیانیه‌ای درباره مسیر آینده این فناوری را امضا کردند. با این حال، بریتانیا و آمریکا از امضای این توافق خودداری کردند، زیرا معتقد بودند که بیانیه مذکور وضوح عملی کافی درباره حکمرانی جهانی هوش مصنوعی نداشته و به مسائل حساس امنیتی نپرداخته است.

افزایش استفاده از هوش مصنوعی در عرصه‌های نظامی و امنیتی، نگرانی‌های جهانی را درباره سوءاستفاده از این فناوری تشدید کرده است. هشدار اریک اشمیت نشان می‌دهد که بدون چارچوب‌های نظارتی دقیق، این فناوری می‌تواند به ابزاری برای بی‌ثبات‌سازی امنیت جهانی تبدیل شود. در این میان، نبود اجماع بین‌المللی درباره نحوه مدیریت و کنترل هوش مصنوعی، چالش‌های جدیدی را برای آینده این فناوری ایجاد کرده است.

موضوعات ذات صلة

دکمه بازگشت به بالا