أخبارالتعليم العالي والبحث العلميتكنولوجيا

الذكاء الاصطناعي بين ثورة الابتكار ومخاطر الوجود: تحديات تنظيمية وقانونية ملحة

من نوبل في الفيزياء والكيمياء إلى تحذيرات كبار الخبراء، الحاجة إلى حوكمة حكومية دولية متكاملة لضمان مستقبل آمن للبشرية

شهد عام 2024 تطورات بارزة في مجال الذكاء الاصطناعي، حيث تم الاعتراف رسمياً بأهمية هذه التقنية عبر منح جائزة نوبل في الفيزياء للأب الروحي للذكاء الاصطناعي جيفري هينتون، الذي شارك الجائزة مع جون هوبفيلد تقديراً لاكتشافاتهما التي أسهمت في تطوير التعلم العميق باستخدام الشبكات العصبية، وهو حجر الأساس في الذكاء الاصطناعي الحديث. وفي نفس العام، نالت جائزة نوبل في الكيمياء ديميس هاسابيس وفريقه من شركة “جوجل ديب مايند” على أبحاثهم في تصميم البروتينات والتنبؤ بأشكالها ثلاثية الأبعاد باستخدام تقنيات الذكاء الاصطناعي، خاصة من خلال إنجاز AlphaFold الذي أحدث زخما ثوريا في مجالات العلوم والطب. هذه الانتصارات الفخرية أقرت بدور الذكاء الاصطناعي كمادة علمية ومُغيّر رئيسي في مجالات متعددة، غيرت أساليب البحث والابتكار.

في المقابل، تحذيرات جيفري هينتون وغيره من كبار خبراء التكنولوجيا تأخذنا إلى جانب مظلم من هذه الثورة التقنية، إذ أعرب هينتون عن قلقه العميق من أن تطور الذكاء الاصطناعي قد يحمل في طياته خطراً وجودياً يهدد بقاء الإنسانية على المدى المتوسط، مع تقديرات باحتمالية تصل إلى 10%، وهو ما يحتم علينا التفكير ملياً في آليات الرقابة والتنظيم، حيث نادَى بالضرورة الملحة لوضع قيود وحوكمة صارمة تحكم شركات ومشاريع الذكاء الاصطناعي. فهذه التقنيات رغم ما تحمله من إمكانات هائلة في تحسين حياتنا، قد تؤدي إلى خسارة ملايين الوظائف، وظهور لغات خاصة بالآلات قد يصعب على البشر فهمها، مما يزيد تعقيد التحكم والسيطرة عليها ويتداخل مع المجالات الأخلاقية والاقتصادية والاجتماعية.
وليس هينتون وحده في هذا الموقف، فآلاف الخبراء من جميع أنحاء العالم يشتركون في المخاوف ذاتها بشأن الذكاء الاصطناعي والتداعيات التي قد تتحقق. فهم يحذرون من مشاهد محتملة لاستخدام الذكاء الاصطناعي كأسلحة دمار شامل، أو لشن هجمات إلكترونية معقدة تؤدي إلى أزمات جيوسياسية، إلى جانب تحديات محتدمة فيما يخص فقدان الوظائف والاضطرابات الاجتماعية. لذا بادر هؤلاء إلى توقيع بيانات تطالب بوقف مؤقت لتطوير تلك الأنظمة التي تفتقد لضوابط وتنظيمات دولية صارمة، يؤكدون أن ترك هذا المجال في قبضة نزوات السوق والمصالح التجارية قد ينذر بكارثة حقيقية.

أمام هذه التحديات الحاسمة، يبرز لزاماً على الحكومات وضع استراتيجيات متكاملة وشاملة لمواجهة هذه المخاطر المتعددة الأبعاد. فلا يكفي بناء قواعد قانونية باهتة، بل يجب إقامة أُطُر مؤسساتية ذات اختصاص واضحة تضم هيئات وطنية متخصصة في الأمن السيبراني، تجدد استراتيجياتها لمواكبة التطورات، مع توفير تدريب مستمر للكوادر الفنية، وتعزيز التعاون بين القطاعين العام والخاص، وكذلك توطيد التنسيق الدولي بهدف تبادل المعلومات والخبرات لمكافحة التهديدات العابرة للحدود. فالأمن الرقمي أصبح ضمن أولويات السيادة الوطنية، ويتطلب جهداً استباقياً لمراقبة التهديدات، وتحليل البيانات باستخدام الذكاء الاصطناعي ذاته بشكل يدعم الوقاية، وليس الانزلاق في أزماته. هذا الأمر ينطبق أيضاً على حماية البنية التحتية الحيوية التي تمثل العمود الفقري لجميع وظائف الدولة؛ فهي بحاجة إلى تعريف واضح وآليات فعالة لمراقبتها إعلامياً وتقنياً، وإشراك المجتمعات المدنية والشركات في رفع مستوى الوعي الأمني، مع خطط طوارئ جاهزة لاختبار جاهزية الأنظمة ضد التهديدات سواء كانت طبيعية أو رقمية.
ويجدر التنويه إلى أن دور القانون في هذا السياق لا يمكن الاستهانة به، إذ يقف حجر الزاوية في مواجهة التحديات التكنولوجية الحديثة، سواء عبر وضع قوانين لحماية الخصوصية وضمان سرية البيانات الشخصية، أو من خلال تشريعات صارمة تحكم الأمن السيبراني وتقنن الرد على الجرائم الرقمية. كما يلعب القانون دوراً مهماً في حماية الملكية الفكرية للمخترعين والمبتكرين، وتحديد المسؤوليات في حال حدوث أخطاء فنية مثل حوادث السيارات ذاتية القيادة أو تقنيات الذكاء الاصطناعي التي تتخذ قرارات مؤثرة، وهو ما يفرض تحليلاً دقيقاً للمسؤولية القانونية. ولا يقل أهمية وجود أطر قانونية دولية قادرة على مواكبة عالمية التكنولوجيا، خصوصاً التعاطي مع الجرائم العابرة للحدود، وتسهيل تبادل البيانات بشكل قانوني ومؤمن بما يحفظ حقوق الدول والأفراد.
هذا كله يقود إلى تحديات معقدة تواجه تنظيم الذكاء الاصطناعي، حيث تتسارع وتيرة التطوير أسرع من قدرة القوانين على التنظيم، بسبب عدم وجود توافق دولي كامل حول معايير أخلاقية وتقنية واضحة، إضافة إلى تضارب المصالح الاقتصادية التي تدفع بعض الفاعلين إلى التسرع في الابتكار، ما قد يلد بيئة افتراضية مليئة بالصناديق السوداء التي يصعب فهم أو تفسير قراراتها أو تحركاتها. ولهذا، ينادي الخبراء بدعوات صريحة لتجميد مؤقت لأنظمة الذكاء الاصطناعي عالية الخطورة، إلى حين وضع قواعد منظمة تتضمن آليات استجابة طارئة للسيطرة على المخاطر المحتملة، وتفعيل هيئات مؤسساتية متخصصة تتابع التطورات، وتعزز التعاون الدولي لمواجهة الأزمات التي قد لا تعرف حدوداً جغرافية.

وختاماً، يكشف هذا المشهد المتشابك بين تميز الذكاء الاصطناعي وإمكاناته الثورية وخطورته الوجودية، والدور التاريخي للقانون والتنظيم الحكومي، عن حاجة ملحة إلى تضافر الجهود العالمية لوضع إطار شامل يصون البشرية من مغبّة استخدام غير مسبوق لتقنيات قادرة على تغيير مسار الحياة كما نعرفها، مع توظيفها لخدمة الإنسان وتعزيز الازدهار الجماعي ضمن قواعد شفافة وأخلاقية مدروسة. هذا المستقبَل المشترك يستدعي وعياً جماعياً ومسؤولية عالية من جميع الفاعلين، ليكون الذكاء الاصطناعي شريكاً لا تهديداً، وحامياً لا مُخرباً، في رحلة التطور الحضاري للبشرية.

اظهر المزيد

حميد فوزي

رئيس التحرير
زر الذهاب إلى الأعلى
error: المحتوى محمي !!