الدكتور حسين عبدالفتاح يكتب: الحرب العالمية الأولى على الذكاء  الاصطناعي

د. حسين عبد الفتاح أستاذ تكنولوجيا التعليم المساعد جامعة قناة السويس
د. حسين عبد الفتاح أستاذ تكنولوجيا التعليم المساعد جامعة قناة السويس

 
في الأيام والأسابيع القليلة الماضية تصدر الذكاء الاصطناعي بصوره وتطبيقاته ومواقعه المختلفة منصات التواصل الاجتماعي وعناوين المقالات والتقارير، كونه أحد أكثر التطورات التكنولوجية إثارة للاهتمام والجدل، لما يوفره من أدوات وإمكانيات هائلة يمكن أن تسهم في جودة وسرعة العديد من جوانب حياة البشر، إلا أن هناك أيضًا عديد من المخاوف المتعلقة بمخاطر متزايدة ومحتملة نتيجة هذا التطور شديد التسارع، منها فقدان الوظائف بسبب استبدال الروبوتات والبرمجيات الذكية لبعض المهام البشرية، والاعتماد الزائد على التكنولوجيا مما يؤدي إلى تدهور المهارات البشرية والخبرات المهنية، إضافة لقضايا الأمان التي يمكن أن تتسبب في انتهاكات للخصوصية، وضرورة السيطرة على التطور السريع للذكاء الاصطناعي لتفادي التهديدات الخطيرة، مما يجعل النقاش حول الجوانب الأخلاقية والأمنية لتطبيقات الذكاء الاصطناعي محل اعتبار، وأكثر أهمية لدى الشعوب والحكومات من أي وقت مضى.
 
بداية يشير مصطلح الذكاء الاصطناعي إلى التطبيقات المستندة إلى التعلم والتزييف الآلي والعميق، وتستخدم تلك التطبيقات في العديد من المجالات؛ على سبيل المثال: يمكن لهذه البرامج تحليل الصور بسرعة ودقة أعلى من الإنسان، كما تحاول السيارات ذاتية القيادة التنبؤ بسلوك قائدي المركبات الآخرين في حركة المرور، وتعمل روبوتات الدردشة وقوائم التشغيل الآلية لخدمات التدفق الحية أيضًا على استخدام الذكاء الاصطناعي في العديد من المهام التي تقترب جودة مخرجاتها مع مخرجات العديد من المهام المسندة للبشر مثل البحث والتلخيص، بل والتأليف وإعادة الصياغة وكتابة الأكواد البرمجية، كما تستخدم تطبيقات الذكاء الاصطناعي في العديد من الصناعات، ولكن استخدامها يمكن أن يكون خطيرًا أيضًا، وعلى الرغم أن قواعد الاتحاد الأوروبي تهدف ابتداء إلى ضمان استخدام مجدي ومسؤول للتكنولوجيا، إلا أنها قد تعيق التقدم التكنولوجي. في ميونخ/بروكسل تضع التعليمات الأوروبية الحالية المتعلقة باستخدام الذكاء الاصطناعي عددًا كبيرًا من الشركات أمام صعوبات كبيرة، فوفقًا لدراسة أجرتها منصة "appliedAI"، فإنه بناء على القواعد الجديدة، سيتم تصنيف أكثر من نصف تطبيقات الذكاء الاصطناعي فيما يسمى بالمنطقة عالية المخاطر، مما يجعل استخدامها بعد ذلك غير ممكن بدون إضافة تكاليف مالية كبيرة. وسيتم نشر الدراسة من وزارة الرقمنة البافارية إلا أنه قد تم تسريبها مسبقًا لوكالة الأنباء الألمانية؛ حيث توصلت البحوث إلى نتائج منها ما يوضح أن 18% من 106 أنظمة ذكاءًا اصطناعي مدروسة يمكن تصنيفها كعالية المخاطر ويمكن تصنيف 42% منها كمنخفضة المخاطر.
وبالنسبة لحوالي 40% من التطبيقات المدروسة، فإن التصنيف غير واضح حتى الآن، وفقًا للدراسة. وهذا يعني أنه قد يتعين على نحو 60% من جميع التطبيقات تلبية متطلبات والتزامات مبالغ فيها.
 
ومؤخرًا، أعلن البيت الأبيض عن خطوة أولى لتنظيم قطاع الذكاء الاصطناعي في الولايات المتحدة، وسمح بتطبيق بعض القيود على التقنيات الجديدة، بما في ذلك "تشات جي بي تي" ChatGPT. ودعت وزارة التجارة الأمريكية الجهات المعنية لتقديم مساهمات لإدارة الرئيس جو بايدن لإعداد تصور حول أنظمة خاصة بالذكاء الاصطناعي، وحث بايدن الكونغرس على تمرير قوانين تضع قيودًا صارمة على شركات التكنولوجيا الضخمة. ورغم أن الولايات المتحدة تتمتع بموقع رائد في قطاع الذكاء الاصطناعي، فإنها متأخرة دوليًا في تنظيم هذا القطاع. وقد سبق ذلك في نهاية شهر ديسمبر من العام الماضي أصدار مجلس دول الاتحاد الأوروبي قرارًا يهدف إلى ضمان سلامة استخدام أنظمة الذكاء الاصطناعي وتطبيقاته والامتثال للحقوق الأساسية التي تضمن الالتزام بالقوانين والأعراف المتبعة في مجتمعات الاتحاد. 
 
ومن أجل تحقيق فعالية القواعد الجديدة، أوضح القرار أنه يتوجب على دول الاتحاد الأوروبي الاتفاق مع البرلمان الأوروبي على خطة عمل موحدة وقواعد تنظيمية لاستخدام وتوظيف الذكاء الاصطناعي وتطبيقاته في المجالات المختلفة، ويركز القانون على المعايير الأوروبية والعالمية، ويتوقع فرض عقوبات صارمة على مخالفات استخدام وتوظيف الذكاء الاصطناعي في شتى المجالات. إلا أن الدراسات توضح أن مشروع لائحة الاتحاد الأوروبي للذكاء الاصطناعي مركز بشكل زائد على المخاطر المتوقعة من تطبيقاته وأدواته، وأنه غير واضح الآليات في العديد من المجالات، و أن هذا النظام القانوني لن يتم تفعيله عمليًا، إذ قد يتسبب في عوائق غير ضرورية خاصة للأعمال الاقتصادية، ووفقًا لوزيرة التكنولوجيا الرقمية جوديث جيرلاخ في مقاطعة بافاريا الألمانية، فقد تم تقييم تطبيقات الذكاء الاصطناعي المسجلة في قاعدة بيانات الشركات في ألمانيا وفقًا للقواعد الأوروبية للدراسة، حيث ناشد المدير التنفيذي لشركة appliedAI أندرياس ليبل الجهات المعنية بإعادة النظر في القواعد المتعلقة بتصنيف المخاطر المتوقعة والتي تسببت في تلك الهواجس القانونية والأمنية؛ حيث أوضح أنه وعلى الرغم من أنهم بحاجة بالتأكيد إلى تنظيم جيد لاستخدام أنظمة الذكاء الاصطناعي الخطرة، إلا أنه لا يمكنهم نسيان فوائدها والتركيز بشكل أحادي على المخاطر قد يمنعهم من الاستفادة منها. بالإضافة إلى أن العقوبات الصارمة المتوقعة للمخالفين قد تؤدي إلى تقييد قرارات الشركات بشكل مفرط، وقد تؤدي الحرب شبه العالمية التي تلوح في الأفق إلى استبعاد العديد من التطبيقات وتقييد فرص الابتكار والإبداع، الأمر الذي يتطلب إعادة التفكير بشكل مختلف في آليات التعاون مع الذكاء الاصطناعي وليس منعه أو تقييده لنكسب صديق يسهم في تحسين جودة حياتنا بدلا من أن نعلن الحرب على عدو جديد!
 

ترشيحاتنا