الصدارة سكاي /متابعات
جاء في العدد الأخير من مجلة “مستقبليات” Futuribles مقال تحذيري يتحدث عن مستقبل هذا العلم وعما سيواجهه من عقبات. وكاتب المقال هو الخبير برتراند براونشفايغ Braunschweig، وقد اختار له العنوان “الجدران الخمسة للذكاء الاصطناعي”. نحاول هنا تلخيص فحواه.
فالذكاء الاصطناعي يطرح أسئلة مجتمعية لا تزال الإجابات عن الكثير منها بعيدة المنال. غير أن التقدم السريع الذي يسجله هذا العلم يجعله يصطدم بخمسة جدران قادرة على تحطيمه ما لم نُولِها العناية التي تستحقها حسب الكاتب. فبإمكان كل جدار من الجدران الخمسة وضع حدّ لتطوّر الذكاء الاصطناعي. ولهذا السبب ينبغي علينا معرفة طبيعة تلك الجدران والسعي لتقديم إجابات عن الأسئلة المطروحة من أجل تجنب انتكاسة ثالثة للذكاء الاصطناعي تلي النكستين اللتين عرفهما خلال السبعينيات والتسعينيات من القرن الماضي. فمن المعلوم أن أثناء العقدين المذكورتين كان البحث العلمي في مجال الذكاء الاصطناعي وتطويره قد توقفا تقريبًا بسبب نقص التمويلات وقلة اهتمام المجتمع به.
ما هي هذه الجدران؟ إنها جدران: الثقة، والطاقة، والأمن، والتفاعل مع البشر، ولاإنسانية الآلة. ويشير الخبير إلى أن كل جدار من تلك الجدران يحتوي على عدد من التشعبّات، وهي تتفاعل أيضا فيما بينها. ولا يخفى أن هناك عوامل غير تكنولوجية تشكك في مستقبل الذكاء الاصطناعي، مثل النقص في عدد الباحثين والمهندسين والفنيين القادرين على تطوير وتطبيق تقنيات الذكاء الاصطناعي. ويتجلى ذلك من خلال ارتفاع الرواتب التي يتم دفعها لأولئك الذين اختاروا الذكاء الاصطناعي كتخصص، وكذا من خلال تصميم العديد من البرامج التدريبية التي من شأنها أن تسمح، على المدى الطويل، بالعودة إلى وضع طبيعي في هذا المجال، المتمثل في وفرة العرض لتلبية الطلب.
جدار الثقة
إذا لم يثق الناس في أنظمة الذكاء الاصطناعي التي يتفاعلون معها، فسوف يرفضونها. ذلك ما سيدفع بحلول انتكاسة جديدة للذكاء الاصطناعي، إن حدث! لقد اهتم العديد من علماء الاجتماع والتكنولوجيا بآليات بلوغ مرحلة الثقة. كما تحاول العديد من الهيئات تقديم تعريفات لماهية الثقة إزاء أنظمة الذكاء الاصطناعي. فكان ذلك مثلا الموضوع الرئيسي لمجموعة من الخبراء التي شكلتها المفوضية الأوروبية.
يمثل موضوع الثقة -خاصة تجاه المنتوجات الرقمية التي يُعدّ الذكاء الاصطناعي جزءًا منها- مزيجا من العوامل التكنولوجية والاجتماعية: العوامل التكنولوجية، كالقدرة على التحقق من صحة الاستنتاج الذي نتوصل إليه، وقوة مقاومة الاضطرابات، إلخ. وأما العوامل الاجتماعية، فهي الاعتماد على تحكيم الأقران، والسمعة عبر الشبكات الاجتماعية، والاعتراف من قبل طرف ثالث موثوق به، إلخ.
فطالما ظلت هذه الأسئلة وما شبهها مطروحة، فإن خطر اصطدام الذكاء الاصطناعي بجدار الثقة سيكون كبيرًا. وسيكون الأمر أدهى من ذلك بالنسبة للأنظمة المعرضة للمخاطر.
جدار الطاقة
لقد تبيّن من الدراسات الجادة أن احتياجات الذكاء الاصطناعي من الطاقة كمية مذهلة. إنها كانت تتضاعف كل 18 شهرًا من عام 1960 إلى عام 2012. ومنذ تلك الفترة، صارت تتضاعف كل ثلاثة أشهر ونصف! والأسوأ من ذلك، إذا ما واصلنا العمل بالمعدل الحالي، هو أن الطلب سوف يتضاعف ألف مرة خلال السنوات الثلاث القادمة، وسيتضاعف هذا الاستهلاك مليون مرة بعد ست سنوات!
وهكذا، إذا لم يتم الإسراع بمعالجة وضع توفير فإن جدار استهلاك الطاقة المرتبط باحتياجات الحوسبة المكثفة في باب تطبيقات الذكاء الاصطناعي -والتي تستند إلى التعلم العميق وتستهلك كميات كبيرة جدًا من البيانات- سيوقف حتماً تقدّمه المذهل، على المدى القصير.
الجدار الأمني
يلاحظ الكاتب أن مشكلات أمن نظام المعلومات ليست حكرا على الذكاء الاصطناعي، غير أن أنظمة هذا العلم لديها خصائص معينة تجعلها عرضة لقضايا أمنية من نوع آخر لا تقل أهمية عن غيرها. إذا كانت أنظمة الذكاء الاصطناعي، شأنها شأن جميع الأنظمة الرقمية، عرضة للهجمات، وعمليات القرصنة والاختراق بالطرق المألوفة (الاندساس، وفك التشفير، واستخدام الفيروسات، والتشبع، إلخ.)، فإن لها خصائص تجعلها أكثر هشاشة وعرضة لأنواع أخرى من الهجمات.
يمكن أن تكون عواقب مثل هذه الهجمات مأساوية. ذلك أن سوء تفسير البيانات قد يؤدي إلى اتخاذ القرار في الاتجاه الخاطئ (كزيادة سرعة السيارة بدل توقيفها). يقدم تقرير المعهد القومي الأمريكي للمعايير والتقنية (NIST) حول هذا الموضوع تصنيفًا مثيرًا للاهتمام خاصا بالهجمات وحالات صدّها. يوضح التقرير أن الهجمات في مرحلة التنبؤ ليست هي الوحيدة التي ينبغي أن تلفت الانتباه، إذ من الممكن تلويث قواعد التعلم بأمثلة مناوئة، مما يضر بالأنظمة المدرِّبة انطلاقا من هذه القواعد. وبطبيعة الحال، فقد تولت أسرة الباحثين في الذكاء الاصطناعي أمر هذه القضية، وظهرت العديد من الأعمال المتعلقة بالكشف عن الهجمات المناوئة من هذا القبيل.
ومهما يكن الأمر، فالمؤكد اليوم أنه لا مناص من وقوع حوادث على مستوى الأنظمة الخطرة أو الاستراتيجية، تتسبب فيها مثل هذه القضايا الأمنية، وما من شك أن عواقب هذه الحوادث ستكون وخيمة على تطوير الذكاء الاصطناعي.
جدار التفاعل مع البشر
تحتاج العديد من أنظمة الذكاء الاصطناعي إلى التفاعل مع البشر. فهذا هو الحال مع بعض الروبوتات، منها بوجه خاص السيارات ذاتية القيادة، وكذا روبوتات مساعدة الأفراد، وروبوتات الدردشة، وبشكل عام جميع الأنظمة التي تحتاج إلى التواصل مع مستخدميها.
من المعلوم أن الآلات الذكية اليوم هي، في الأساس، أدوات نستخدمها، وهي لا تمثّل زملاء لأعضاء الفريق العامل. ففي أحسن الأحوال، نجد أن هذه التكنولوجيات مفيدة من حيث أنها تزيد في القدرات البشرية، لكن مهاراتها التواصلية والمعرفية لا تزال غير كافية لنجعل منها زملاء مفيدين وموثوق بهم. ذلك أنه ينبغي على الآلات التعاونية الذكية أن تكون مرنة، وأن تتكيّف مع حالات الزميل البشري في الفريق العامل، وأن تتأقلم أيضا مع البيئة. كما يجب أن تدرك هذه الآلات قدرات المستخدم ونواياه والتكيّف معها.
هناك مشكلة أعمّ من ذلك يوضحها مثال السيارات ذاتية القيادة، حين ينبغي نقل التحكم في السيارة إلى السائق إذا ما أدركت الآلة عدم قدرتها على القيادة (يحدث ذلك مثلا، في حالة عطل أو نقص في الرؤية، إلخ.). في هذه الحالة سيحتاج السائق إلى الكثير من الوقت لاستيعاب الوضع واتخاذ المبادرة في القيادة. باختصار، فإن تفاعل الآلة مع البشر موضوع معقد ويبحث عن حل إلى اليوم.
جدار لا إنسانية الآلات
يضع الكاتب هنا عدة مكونات في هذا الجدار الخامس الذي سماه جدار “إنسانية الآلات”، أو بالأحرى “لا إنسانية الآلات”: اكتساب الفطرة السليمة؛ التفكير السببي، إلخ. تضم هذه القائمة جميع المكونات التي نمتلكها، نحن البشر، بشكل طبيعي والتي لا تمتلكها أنظمة الذكاء الاصطناعي، ولن تمتلكها على المدى القصير أو المتوسط. على سبيل المثال، من المعلوم أن الفطرة السليمة هي التي تسمح لنا بالعيش اليومي. فنحن نعلم مثلا أنه لا ينبغي وضع الإصبع في مأخذ كهربائي، لكن برنامج “أليكسا” Alexa الذكي نصح مؤخرًا فتاة تبلغ من العمر 10 سنوات بعكس ذلك.
يرى الكاتب أن هذا الجدار هو الأبعد، ولكنه يمثل جدارا قويا في الوقت الراهن. والواقع أن خطره الآن ليس ذا أهمية، غير أنه يتفاقم يوما بعد يوم مع الزيادة في إدراج أنظمة ذات استقلالية متصاعدة للذكاء الاصطناعي، تتميز باندساسيتها وبتأثيرها الكبير في مجتمعنا.
المصدر: الشروق العربي