أعمال

قمَّة المعرفة تستعرض التقدم الجنوني في الذكاء الاصطناعي


استعرض الدكتور صالح سليم الحموري، خبير التدريب والتطوير في كلية محمد بن راشد للإدارة الحكومية، خلال مشاركته في قمَّة المعرفة، التي نظِّمتها مؤسَّسة محمد بن راشد آل مكتوم للمعرفة، مدى التقدم "الجنوني" الذي يشهده العالم في مجال الذكاء الاصطناعي، وخاصةً "الذكاء الاصطناعي التوليدي". حيث أوضح أنَّ هذا المجال لم يعد مجرد فكرة أو طموح مستقبلي، بل أصبح واقعًا يمتلك القدرة على إنتاج نصوص، صور، وأصوات بجودة ومهارة تجعل من الصعب على البشر التفريق بينها وبين ما يصنعه الإنسان.
وبيّن أنَّ هذا التطور الهائل يشبه "سيارة رياضية" تنطلق بسرعة فائقة على طريق مفتوح، بلا "إشارات مرور" أو "رادارات" تفرض أي قيود. إنها تندفع بلا توقف، وتفتح آفاقًا واسعة من الإبداع والابتكار، ولكن، في ظل غياب الضوابط المناسبة والرقابة اللازمة، قد يحمل هذا التطور في طياته عواقب لا يمكن التنبؤ بها، قد تصل في بعض الأحيان إلى حد الكارثية. هذا الواقع يضع أمامنا تحديات ومسؤوليات جسيمة لضمان التوازن بين التطور التكنولوجي والاستفادة المثلى منه من جهة، وبين وضع آليات لتنظيمه وحمايتنا من مخاطره المحتملة من جهة أخرى.
كما عبَّر عن أنَّ السباق نحو "الابتكار والتميز في الذكاء الاصطناعي" يشهد تنافسًا محمومًا بين الشركات والمؤسسات العالمية، التي تسعى لتقديم أنظمة وأدوات تعتمد على هذه التقنية المتقدمة. ومع ذلك، فإن هذا التقدم السريع يعكس سباقًا في طريق غير مُنظم، ما أثار مخاوف من التطبيقات العشوائية وغير الأخلاقية. يتجلى ذلك في تزييف الحقائق، انتهاك الخصوصية، وحتى استخدام الذكاء الاصطناعي لأغراض غير مشروعة. مثل هذه المخاوف تثير الحاجة الملحة إلى تنظيم وتوجيه هذه التقنيات بشكل يضمن تحقيق أقصى استفادة منها، دون إحداث اضطراب اجتماعي وأخلاقي.
وأضاف هذه "السرعة الجنونية" في تطوير الذكاء الاصطناعي قد تكون مصدر قلق إذا لم يتم وضع ضوابط صارمة وواضحة تنظم عمله. في غياب "الإشارات الحمراء" التي تُبطئ هذا السباق المحموم، يمكن أن نواجه تحديات أخلاقية وقانونية معقدة. ما يزيد من حدة هذه الإشكالية هو عدم قدرة العديد من الجهات التنظيمية حول العالم على مواكبة هذا التطور السريع، ما يجعل الحاجة ملحة إلى استراتيجيات تتناول هذا التحدي بفعالية.
وأشار إلى أنَّه لحماية المجتمعات وضمان الاستفادة القصوى من الذكاء الاصطناعي دون التورط في المخاطر، يجب اتخاذ قرارات حاسمة ووضع آليات ضوابط فعالة. من بين هذه الحلول، يأتي إنشاء إطار قانوني شامل يضمن استخدام الذكاء الاصطناعي بشكل آمن ومسؤول، مع فرض عقوبات واضحة وصارمة على الاستخدامات الضارة أو غير الأخلاقية. ينبغي أيضًا أن تهتم الحكومات والمؤسسات بتطوير مجالس وهيئات مختصة بوضع قواعد أخلاقية لتنظيم تطوير واستخدام الذكاء الاصطناعي، بحيث تركز على الشفافية، العدالة، وتجنب التمييز.
ولفت إلى أنَّ التعاون الدولي هو ضرورة لا غنى عنها في هذا السياق، حيث يجب على الدول تبادل الخبرات ووضع سياسات موحدة تُلزم الشركات والمؤسسات بالالتزام بمعايير أخلاقية وقانونية صارمة. في الوقت نفسه، يُعتبر تثقيف المجتمع وتوعيته بمخاطر الذكاء الاصطناعي وسبل استخدامه بشكل سليم ضرورة أساسية، وينبغي أن يتم ذلك من خلال المدارس والمؤسسات الحكومية والخاصة. كما أن تشجيع البحث والتطوير الآمن في مجالات الذكاء الاصطناعي يعد خطوة حيوية لضمان أن تكون التطبيقات الناتجة مفيدة وآمنة للمجتمع، مع إجراء مراجعات دورية للتأكد من سلامة استخدامها.
في الختام، أكَّد أنَّ التقدم في الذكاء الاصطناعي، رغم مخاطره، هو فرصة هائلة للبشرية إذا تم تنظيمه وتوجيهه بطريقة تحقق التوازن بين الابتكار والالتزام الأخلاقي، ليكون أداة للخير والنفع بدلاً من أن يتحول إلى مصدر للخطر والاضطراب.

المنشورات ذات الصلة