صفحات الثقافة

مقالات تناولت مسألة “الذكاء الاصطناعي”

تحديث 31 آب 2023

—————————

الذكاء الاصطناعي: فرصة أم خطر وجودي؟/ مارسيلو غلايسر

ترجمة: لطفية الدليمي

نعيشُ أزمنة غريبة، حيث التقنية التي نعتمدُ عليها أعظم اعتماد هي في الوقت ذاته مصدر أكبر مخاوفنا. أمسينا نقيم احتفاليات كبرى للمنجزات العظيمة المتحققة في التخوم الريادية للعلم والتقنية حتى لو كنّا نرتعبُ خوفًا من التفكير بالكيفية التي قد تعمل بها هذه المنجزات على إيقاع الأذى بنا. ميادين هذه المنجزات كثيرة تمتدُّ من الهندسة الوراثية إلى الذكاء الاصطناعي، ومن التقنيات النووية إلى الروبوتات النانوية (مفرطة الصغر). الحقُّ أنّ قائمة التقنيات الباعثة على الرعب والمتطوّرة بسرعة فائقة هي قائمة طويلة.  

لكن برغم كلّ شيء فإنّ هذا الخوف من الآلة (أي التقنية – المترجمة) هو ليس بالخوف الجديد كما قد يبدو الأمر. التقنية من جانبها لطالما اقترنت بالسلطة والدولة، والجانب المظلم من التاريخ البشري يمكن سردهُ في شاكلة سلسلة من الحروب التي كان المنتصر فيها هو من يحوز وسائل وأدوات التقنية الأرفع مقامًا (ثمة بعض الاستثناءات بالطبع؛ لكنها قليلة لا يُعتدُّ بها). العلم ومنتجاته التقنية يسعون وراء المال.

هذا الخوف من الآلة (التقنية) يبدو خوفًا في غير موضعه. الآلة ليس لها نيّة أو مقصد؛ وحدُهُ صانعها هو من يمتلك المقصد والغاية. الخوف من الآلة هو في جوهره خوف من نظرائنا البشريين. نحن نخاف ممّا يمكن لكلّ واحد فينا أن يوقِعَ من أذى بالآخر.

كيف يغيّرُ الذكاء الاصطناعي الأشياء؟

بالتأكيد ستوافق على المواضعة السابقة؛ لكنّ الذكاء الاصطناعي يغيّرُ كلّ شيء. كيف؟

مع وجود الذكاء الاصطناعي يمكن للآلة ذاتها أن تطوّر شكلًا ما من أشكال الاستقلالية بصرف النظر عن مدى بدائية ومحدودية تلك الاستقلالية. هذا مكافئ للقول إنّ الآلة حينها سيكون لها إرادتها الخاصة، وهذه الإرادة حتى لو عكست بعض الصفات التي تبدو بشرية فإنّها لن تكون مطبوعة على الاكتفاء بالأفعال الخيّرة دومًا. يمضي هذا الرأي أبعد من هذا الحدّ فيدّعي المنافحون عنه أنّ الآلة ستبلغ يومًا ما حدًّا تعلم فيه بشكل من الأشكال ما الذي يتوجّبُ عليها فعله للتملّص من سطوة البشر. حينها ستكون الآلة (الذكية) مصدر تهديد وجودي لنوعنا البشري.

هل هذا النوع من التهديدات غير مسبوق؟ كلا. ليس جديدًا. كتبت ماري شيللي Mary Shelley روايتها فرانكنشتاين Frankenstein عام 1818  لتحذيرنا ممّا يمكن للعلم أن يفعله فيما لو استرشد بنداء خاطئ. في رواية شيلي كان النداء الخاطئ الذي فعل أقصى مفاعيله في روح الدكتور فرانكنشتاين هو ربح المعركة في مواجهة الموت (أو بعبارة أخرى: قلبُ مسار الوقائع في الطبيعة). هنا دعونا ندقّقْ في هذا الأمر: إنّه لأمرٌ حقيقي نشهده جميعًا ونقرُّ بواقعيته عندما نعترف أنّ كلّ علاج لعلّة من عللنا البشرية إنّما هو تدخّلٌ في المفاعيل العادية للطبيعة؛ لكن برغم هذا فإننا نفتخر ويملؤنا الزهو إذ نتفنّنُ في تطوير علاجات لعللنا البشرية فضلًا عن العمل الحثيث لإطالة أعمارنا والارتقاء بنوعيتها. ليس في مستطاع العلم تحقيق شيء أكثر نبلًا من هذه المساعي؛ لكنّ ما يجعل الأمر فوضويًا ويجعل الصورة مضبّبة هو عندما يحصل تداخل بين السعي إلى الخير البشري والسعي إلى السلطة. عندما يكون طلب السلطة مسعى له الأولوية على ما سواه فإنّ كلّ ما له علاقة بالسلطة سيتقدّمُ على غيره وسيكون له القدح المعلّى!! الهدف الأعلى لكلّ مسعى سلطوي هو أن نحوز قدرات سلطوية لا حدود لها: أن نكون أسياد الزمن وأسياد الحياة والموت.

بالعودة إلى موضوعة الذكاء الاصطناعي ليس ثمّة من شكّ في أنّ التقنية ستكون مصدر عونٍ هائل لنا. ستكون لنا في المستقبل وسائل طبية تشخيصية أفضل، ومنظومات أفضل للسيطرة على المرور، وتصاميم أفضل للجسور، ووسائل تعليمية أفضل في صفوف التعليم الواقعية كما في منصّات التعليم الافتراضية (التعليم عن بعد)؛ غير أنّ الوقائع تخبرُنا كذلك بأنه ستكون لنا حظوظ أكبر لتحقيق أرباح كبيرة في أسواق الأسهم، وستكون لنا استراتيجيات حربية أفضل، وجنودٌ أفضل عُدّةً ومهاراتٍ قتالية، ووسائل أكثر تطورًا للقتل عن بعد. هذه الوقائع من شأنها أن توفّر سلطة حقيقية لهؤلاء الذين يعملون على تطوير التقنيات الفضلى مثلما ستوفّرُ هذه التقنيات سلطة لا تقلُّ عن سلطة المطوّرين لهؤلاء الممسكين بزمام السيطرة على تلكم التقنيات. باختصار، ستعظّمُ هذه التقنيات أرباح الفائزين في الحروب سواءٌ أكانوا يقاتلون باستخدام الأسلحة أو باستخدام المال. الفائزون في الحروب سيحققون الغلبة على أعدائهم وستتعزّز مواقعهم الاستراتيجية وأوزانهم في توجيه السياسات العالمية، والمقاتلون من أجل المال ستمتلئ خزائنهم بأموال مضافة.

حكايةٌ قديمةٌ قِدَم الحضارة

السؤال الجوهري يبقى دومًا: كيف السبيل إلى السير قُدُمًا؟ عندما نطرحُ هذا التساؤل تصبح الأمور أكثر إثارة وتعقيدًا.

لطالما سمعنا كثيرًا ذلك الرأي المكرور الذي مفاده أنّ البشرية في مسيس الحاجة الطارئة لاعتماد ضوابط وآليات تحكّم وسياسات تشريعية تكفل التعامل البشري المعقلن مع ثورة الذكاء الاصطناعي. هذا عظيم؛ لكن لو كانت هذه الآلات (الذكية) تعمل بصورة أساسية كصندوق أسود (أو قريبة من أن تكون صناديق سوداء مقفلة بالكامل) مستعينة بشبكات عصبية ذاتية التعلّم فكيف يمكننا بالضبط وضعُ ضوابط تحوز وثوقنا الكامل بأن تبقى مؤثرة وذات سطوة على الآلات؟ وكيف لنا أن نكون واثقين بأنّ الذكاء الاصطناعي – بكلّ قدرته اللامحدودة في جمع البيانات – سيكون بمستطاعه يومًا ما بلوغ وسائل جديدة في الالتفاف على ضوابطنا البشرية وبكيفية مماثلة لما يصنعه بعض أمهر اللصوص في السطو على خزائننا المؤمّنة بأقصى وسائل الأمان؟

السؤال الجوهري الثاني في موضوعة الذكاء الاصطناعي يختصُّ بالسيطرة العالمية. كتبتُ في غير موضع أنّ الاشراف والرقابة على التقنيات الجديدة مسألتان في غاية التعقيد: هل يتوجّبُ على بلدان العالم إنشاء منظّمة عقل عالمي World Mind Organization تناطُ بها مهمّة مراقبة التقنيات التي تطوّرُ الذكاء. لو حصل هذا فكيف يمكننا تنظيم المجلس الحاكم لهذه المنظمة الفاعلة على نطاق عالمي؟ من ينبغي أن يكون جزءًا من هيكلها التنظيمي؟ ما هي الآليات التي بمقدورها ضمانُ أن لا تعمل الحكومات والشركات الخاصة سرًّا على كسر القواعد الملزِمة وبخاصة في الحالة التي يحصلُ فيها وضعُ أكثر الأسلحة تطوّرًا في أيدي كاسري القواعد العالمية؟

الأمر المتوقّع، ومثلما حصل في سوابق تاريخية، فإنّ البلدان التي لديها أفضل العلماء والمهندسين هي التي ستحوز أعظم المنافع من كلّ تطوّر تقني، وهو ما نتوقّعُ حصوله مع الذكاء الاصطناعي. نتوقّعُ نوعًا من انفراج عالمي سيحصل مع تقنيات الذكاء الاصطناعي المتقدّمة وبشاكلة شبيهة بالانفراجة النووية العالمية التي حصلت إبان الحرب الباردة. يجب التأكيد ثانية: نحنُ نخافُ وقوع التقنية المتقدمة ذات القدرات التدميرية الهائلة في الأيدي الخطأ. هذا أمرٌ يمكن أن يتحقق بسهولة فائقة لأنّ آلات الذكاء الاصطناعي لن تحتاج لأن تُبْنى على مقياس صناعي كبير مثلما كانت حاجة القدرات النووية إلى منشآت صناعية ضخمة. الإرهاب المُؤَسَّس على الذكاء الاصطناعي سيكون دومًا قوة يجب حساب كيفية التعامل معها وردعها وعدم التغافل عنها.

هذا هو أخيرًا مشهدنا البشري: أناسٌ خائفون من تقنية الذكاء الاصطناعي التي نحنُ مَنْ خَلَقَها في نهاية المطاف!!

ما العنصرُ المُفْتَقَدُ في هذه الصورة؟ إنه التالي: هذه الصورة تتغافلُ الحديث عن النمط التدميري للجشع وعشق السلطة، وهما الخصيصتان اللتان طبعتا حضارتنا وصارتا مَعْلَمين مميزين لها في معظم أطوارها. الفشل الذي يكشف عنه تطوّر حضارتنا هو فشلٌ أخلاقي، ونحن وحدنا من يمكنه عكس هذه الصورة.

نحنُ في العادة نقومُ بتعريف الطور الذي بلغته حضارتنا مستعينين بمدى مراكمتها للغنى المادي. إنّ هذه الرؤية المادية العالمية تقتلنا، ومشروع الحضارة الذي اكتشفناه وراكمنا نتائجه صار أقرب لأحد آكلي لحوم البشر الذين يأكلون أنفسهم ذاتيًا!!

طالما بقينا نغضّ الأبصار عن هذه الأخطار المميتة، وطالما بقينا نسير في المسار ذاته الذي اعتمدنا السير فيه للعشرة آلاف سنة الأخيرة فسيكون أمرًا في غاية الصعوبة أن نضع تشريعات مقننة للتقنيات المستجدة في الذكاء الاصطناعي، وسيكون أمرًا مماثلًا في الصعوبة ضمانُ احترام واتباع هذه التشريعات. هذه حقيقة مؤكّدة سنشهدُ مفاعيلها الخطيرة في المستقبل القريب ما لم يساعدنا الذكاء الاصطناعي ذاته في أن نصبح بشرًا أفضل ربما عبر تعليمنا كم كنّا حمقى وأغبياء لأزمان طويلة. تبدو هذه الصورة أمنية بعيدة المنال لو وضعنا في اعتبارنا الطرف الذي سيعمل الذكاء الاصطناعي على خدمته أكثر من سواه.

لكنْ بوسع المرء دومًا أن يأمل الأفضل من المستقبل.

مارسيلو غلايسر Marcelo Gleiser: أستاذ الفلسفة الطبيعية والفيزياء والفلك في كلية دارتماوث الأميركية. ولد في البرازيل عام 1959. زميل في الجمعية الفيزيائية الأميركية، وحاصل على جائزة تمبلتون عام 2019. أسس (بمعية آدم فرانك) موقع 13.8 الإلكتروني المختص بالعلاقة بين العلم والثقافة العامة. ألّف الكتب التالية: الكون الراقص The Dancing Universe، 1998 – النبي وعالم الفلك The Prophet and the Astronomer ، 2003 – دمعةٌ على حافة الخلق A Tear at The Edge of Creation ، 2010 – جزيرة المعرفة The Island of Knowledge ، 2014 – الجمال البسيط لما هو غير متوقّع The Simple Beauty of the Unexpected، 2016 – العقول العظيمة لا تفكرُ بطريقة متماثلة Great Minds Don’t Think alike ، 2022

*النص أعلاه منشور بتاريخ 31 أيار/ مايو 2023 في موقع Big Think الإلكتروني.

رابط النص الأصلي:

https://bigthink.com/13-8/fear-ai-misplaced/

المترجم: لطفية الدليمي

ضفة ثالثة

——————————-

الذكاء الاصطناعي: فرصة أم خطر وجودي؟/ مارسيلو غلايسر

ترجمة: لطفية الدليمي

نعيشُ أزمنة غريبة، حيث التقنية التي نعتمدُ عليها أعظم اعتماد هي في الوقت ذاته مصدر أكبر مخاوفنا. أمسينا نقيم احتفاليات كبرى للمنجزات العظيمة المتحققة في التخوم الريادية للعلم والتقنية حتى لو كنّا نرتعبُ خوفًا من التفكير بالكيفية التي قد تعمل بها هذه المنجزات على إيقاع الأذى بنا. ميادين هذه المنجزات كثيرة تمتدُّ من الهندسة الوراثية إلى الذكاء الاصطناعي، ومن التقنيات النووية إلى الروبوتات النانوية (مفرطة الصغر). الحقُّ أنّ قائمة التقنيات الباعثة على الرعب والمتطوّرة بسرعة فائقة هي قائمة طويلة.  

لكن برغم كلّ شيء فإنّ هذا الخوف من الآلة (أي التقنية – المترجمة) هو ليس بالخوف الجديد كما قد يبدو الأمر. التقنية من جانبها لطالما اقترنت بالسلطة والدولة، والجانب المظلم من التاريخ البشري يمكن سردهُ في شاكلة سلسلة من الحروب التي كان المنتصر فيها هو من يحوز وسائل وأدوات التقنية الأرفع مقامًا (ثمة بعض الاستثناءات بالطبع؛ لكنها قليلة لا يُعتدُّ بها). العلم ومنتجاته التقنية يسعون وراء المال.

هذا الخوف من الآلة (التقنية) يبدو خوفًا في غير موضعه. الآلة ليس لها نيّة أو مقصد؛ وحدُهُ صانعها هو من يمتلك المقصد والغاية. الخوف من الآلة هو في جوهره خوف من نظرائنا البشريين. نحن نخاف ممّا يمكن لكلّ واحد فينا أن يوقِعَ من أذى بالآخر.

كيف يغيّرُ الذكاء الاصطناعي الأشياء؟

بالتأكيد ستوافق على المواضعة السابقة؛ لكنّ الذكاء الاصطناعي يغيّرُ كلّ شيء. كيف؟

مع وجود الذكاء الاصطناعي يمكن للآلة ذاتها أن تطوّر شكلًا ما من أشكال الاستقلالية بصرف النظر عن مدى بدائية ومحدودية تلك الاستقلالية. هذا مكافئ للقول إنّ الآلة حينها سيكون لها إرادتها الخاصة، وهذه الإرادة حتى لو عكست بعض الصفات التي تبدو بشرية فإنّها لن تكون مطبوعة على الاكتفاء بالأفعال الخيّرة دومًا. يمضي هذا الرأي أبعد من هذا الحدّ فيدّعي المنافحون عنه أنّ الآلة ستبلغ يومًا ما حدًّا تعلم فيه بشكل من الأشكال ما الذي يتوجّبُ عليها فعله للتملّص من سطوة البشر. حينها ستكون الآلة (الذكية) مصدر تهديد وجودي لنوعنا البشري.

هل هذا النوع من التهديدات غير مسبوق؟ كلا. ليس جديدًا. كتبت ماري شيللي Mary Shelley روايتها فرانكنشتاين Frankenstein عام 1818  لتحذيرنا ممّا يمكن للعلم أن يفعله فيما لو استرشد بنداء خاطئ. في رواية شيلي كان النداء الخاطئ الذي فعل أقصى مفاعيله في روح الدكتور فرانكنشتاين هو ربح المعركة في مواجهة الموت (أو بعبارة أخرى: قلبُ مسار الوقائع في الطبيعة). هنا دعونا ندقّقْ في هذا الأمر: إنّه لأمرٌ حقيقي نشهده جميعًا ونقرُّ بواقعيته عندما نعترف أنّ كلّ علاج لعلّة من عللنا البشرية إنّما هو تدخّلٌ في المفاعيل العادية للطبيعة؛ لكن برغم هذا فإننا نفتخر ويملؤنا الزهو إذ نتفنّنُ في تطوير علاجات لعللنا البشرية فضلًا عن العمل الحثيث لإطالة أعمارنا والارتقاء بنوعيتها. ليس في مستطاع العلم تحقيق شيء أكثر نبلًا من هذه المساعي؛ لكنّ ما يجعل الأمر فوضويًا ويجعل الصورة مضبّبة هو عندما يحصل تداخل بين السعي إلى الخير البشري والسعي إلى السلطة. عندما يكون طلب السلطة مسعى له الأولوية على ما سواه فإنّ كلّ ما له علاقة بالسلطة سيتقدّمُ على غيره وسيكون له القدح المعلّى!! الهدف الأعلى لكلّ مسعى سلطوي هو أن نحوز قدرات سلطوية لا حدود لها: أن نكون أسياد الزمن وأسياد الحياة والموت.

“نقومُ بتعريف الطور الذي بلغته حضارتنا مستعينين بمدى مراكمتها للغنى المادي. إنّ هذه الرؤية المادية العالمية تقتلنا، ومشروع الحضارة الذي اكتشفناه وراكمنا نتائجه صار أقرب لأحد آكلي لحوم البشر الذين يأكلون أنفسهم ذاتيًا”

بالعودة إلى موضوعة الذكاء الاصطناعي ليس ثمّة من شكّ في أنّ التقنية ستكون مصدر عونٍ هائل لنا. ستكون لنا في المستقبل وسائل طبية تشخيصية أفضل، ومنظومات أفضل للسيطرة على المرور، وتصاميم أفضل للجسور، ووسائل تعليمية أفضل في صفوف التعليم الواقعية كما في منصّات التعليم الافتراضية (التعليم عن بعد)؛ غير أنّ الوقائع تخبرُنا كذلك بأنه ستكون لنا حظوظ أكبر لتحقيق أرباح كبيرة في أسواق الأسهم، وستكون لنا استراتيجيات حربية أفضل، وجنودٌ أفضل عُدّةً ومهاراتٍ قتالية، ووسائل أكثر تطورًا للقتل عن بعد. هذه الوقائع من شأنها أن توفّر سلطة حقيقية لهؤلاء الذين يعملون على تطوير التقنيات الفضلى مثلما ستوفّرُ هذه التقنيات سلطة لا تقلُّ عن سلطة المطوّرين لهؤلاء الممسكين بزمام السيطرة على تلكم التقنيات. باختصار، ستعظّمُ هذه التقنيات أرباح الفائزين في الحروب سواءٌ أكانوا يقاتلون باستخدام الأسلحة أو باستخدام المال. الفائزون في الحروب سيحققون الغلبة على أعدائهم وستتعزّز مواقعهم الاستراتيجية وأوزانهم في توجيه السياسات العالمية، والمقاتلون من أجل المال ستمتلئ خزائنهم بأموال مضافة.

حكايةٌ قديمةٌ قِدَم الحضارة

السؤال الجوهري يبقى دومًا: كيف السبيل إلى السير قُدُمًا؟ عندما نطرحُ هذا التساؤل تصبح الأمور أكثر إثارة وتعقيدًا.

لطالما سمعنا كثيرًا ذلك الرأي المكرور الذي مفاده أنّ البشرية في مسيس الحاجة الطارئة لاعتماد ضوابط وآليات تحكّم وسياسات تشريعية تكفل التعامل البشري المعقلن مع ثورة الذكاء الاصطناعي. هذا عظيم؛ لكن لو كانت هذه الآلات (الذكية) تعمل بصورة أساسية كصندوق أسود (أو قريبة من أن تكون صناديق سوداء مقفلة بالكامل) مستعينة بشبكات عصبية ذاتية التعلّم فكيف يمكننا بالضبط وضعُ ضوابط تحوز وثوقنا الكامل بأن تبقى مؤثرة وذات سطوة على الآلات؟ وكيف لنا أن نكون واثقين بأنّ الذكاء الاصطناعي – بكلّ قدرته اللامحدودة في جمع البيانات – سيكون بمستطاعه يومًا ما بلوغ وسائل جديدة في الالتفاف على ضوابطنا البشرية وبكيفية مماثلة لما يصنعه بعض أمهر اللصوص في السطو على خزائننا المؤمّنة بأقصى وسائل الأمان؟

السؤال الجوهري الثاني في موضوعة الذكاء الاصطناعي يختصُّ بالسيطرة العالمية. كتبتُ في غير موضع أنّ الاشراف والرقابة على التقنيات الجديدة مسألتان في غاية التعقيد: هل يتوجّبُ على بلدان العالم إنشاء منظّمة عقل عالمي World Mind Organization تناطُ بها مهمّة مراقبة التقنيات التي تطوّرُ الذكاء. لو حصل هذا فكيف يمكننا تنظيم المجلس الحاكم لهذه المنظمة الفاعلة على نطاق عالمي؟ من ينبغي أن يكون جزءًا من هيكلها التنظيمي؟ ما هي الآليات التي بمقدورها ضمانُ أن لا تعمل الحكومات والشركات الخاصة سرًّا على كسر القواعد الملزِمة وبخاصة في الحالة التي يحصلُ فيها وضعُ أكثر الأسلحة تطوّرًا في أيدي كاسري القواعد العالمية؟

الأمر المتوقّع، ومثلما حصل في سوابق تاريخية، فإنّ البلدان التي لديها أفضل العلماء والمهندسين هي التي ستحوز أعظم المنافع من كلّ تطوّر تقني، وهو ما نتوقّعُ حصوله مع الذكاء الاصطناعي. نتوقّعُ نوعًا من انفراج عالمي سيحصل مع تقنيات الذكاء الاصطناعي المتقدّمة وبشاكلة شبيهة بالانفراجة النووية العالمية التي حصلت إبان الحرب الباردة. يجب التأكيد ثانية: نحنُ نخافُ وقوع التقنية المتقدمة ذات القدرات التدميرية الهائلة في الأيدي الخطأ. هذا أمرٌ يمكن أن يتحقق بسهولة فائقة لأنّ آلات الذكاء الاصطناعي لن تحتاج لأن تُبْنى على مقياس صناعي كبير مثلما كانت حاجة القدرات النووية إلى منشآت صناعية ضخمة. الإرهاب المُؤَسَّس على الذكاء الاصطناعي سيكون دومًا قوة يجب حساب كيفية التعامل معها وردعها وعدم التغافل عنها.

هذا هو أخيرًا مشهدنا البشري: أناسٌ خائفون من تقنية الذكاء الاصطناعي التي نحنُ مَنْ خَلَقَها في نهاية المطاف!!

ما العنصرُ المُفْتَقَدُ في هذه الصورة؟ إنه التالي: هذه الصورة تتغافلُ الحديث عن النمط التدميري للجشع وعشق السلطة، وهما الخصيصتان اللتان طبعتا حضارتنا وصارتا مَعْلَمين مميزين لها في معظم أطوارها. الفشل الذي يكشف عنه تطوّر حضارتنا هو فشلٌ أخلاقي، ونحن وحدنا من يمكنه عكس هذه الصورة.

نحنُ في العادة نقومُ بتعريف الطور الذي بلغته حضارتنا مستعينين بمدى مراكمتها للغنى المادي. إنّ هذه الرؤية المادية العالمية تقتلنا، ومشروع الحضارة الذي اكتشفناه وراكمنا نتائجه صار أقرب لأحد آكلي لحوم البشر الذين يأكلون أنفسهم ذاتيًا!!

طالما بقينا نغضّ الأبصار عن هذه الأخطار المميتة، وطالما بقينا نسير في المسار ذاته الذي اعتمدنا السير فيه للعشرة آلاف سنة الأخيرة فسيكون أمرًا في غاية الصعوبة أن نضع تشريعات مقننة للتقنيات المستجدة في الذكاء الاصطناعي، وسيكون أمرًا مماثلًا في الصعوبة ضمانُ احترام واتباع هذه التشريعات. هذه حقيقة مؤكّدة سنشهدُ مفاعيلها الخطيرة في المستقبل القريب ما لم يساعدنا الذكاء الاصطناعي ذاته في أن نصبح بشرًا أفضل ربما عبر تعليمنا كم كنّا حمقى وأغبياء لأزمان طويلة. تبدو هذه الصورة أمنية بعيدة المنال لو وضعنا في اعتبارنا الطرف الذي سيعمل الذكاء الاصطناعي على خدمته أكثر من سواه.

لكنْ بوسع المرء دومًا أن يأمل الأفضل من المستقبل.

مارسيلو غلايسر Marcelo Gleiser: أستاذ الفلسفة الطبيعية والفيزياء والفلك في كلية دارتماوث الأميركية. ولد في البرازيل عام 1959. زميل في الجمعية الفيزيائية الأميركية، وحاصل على جائزة تمبلتون عام 2019. أسس (بمعية آدم فرانك) موقع 13.8 الإلكتروني المختص بالعلاقة بين العلم والثقافة العامة. ألّف الكتب التالية: الكون الراقص The Dancing Universe، 1998 – النبي وعالم الفلك The Prophet and the Astronomer ، 2003 – دمعةٌ على حافة الخلق A Tear at The Edge of Creation ، 2010 – جزيرة المعرفة The Island of Knowledge ، 2014 – الجمال البسيط لما هو غير متوقّع The Simple Beauty of the Unexpected، 2016 – العقول العظيمة لا تفكرُ بطريقة متماثلة Great Minds Don’t Think alike ، 2022

*النص أعلاه منشور بتاريخ 31 أيار/ مايو 2023 في موقع Big Think الإلكتروني.

رابط النص الأصلي:

https://bigthink.com/13-8/fear-ai-misplaced/

    المترجم: لطفية الدليمي

ضفة ثالثة

———————————–

الذكاء الاصطناعي وسؤال القيم/ علي أنوزلا

طوال التاريخ البشري، سعى الإنسان، باستمرار، إلى توسيع نطاق قدراته الجسدية والعقلية إلى ما وراء حدودها لتلبية احتياجاته ورغباته. ويندرج، في هذه السيرورة الذكاء الاصطناعي الذي نما بشكل كبير في السنوات الأخيرة، باعتباره أداة تؤدّي وظائف معرفية عند البشر، لتنمية الإدراك والاستدلال والتعلم والتفاعل مع الآخرين. ونظرًا إلى أن الذكاء الاصطناعي أصبح أكثر انتشارًا في حياتنا اليومية، فإنه يعمل على تغيير الطريقة التي نعيش بها ونعمل ونتفاعل مع بعضنا بعضا، من روبوتات المحادثة والمساعدات الافتراضية إلى السيارات ذاتية القيادة وتكنولوجيا التعرّف على الوجه، أصبح الذكاء الاصطناعي منتشرًا بشكل متزايد في حياتنا اليومية، وهو ما يثير أسئلة اجتماعية وأخلاقية مهمة بشأن دور التكنولوجيا في حياتنا، وتأثيرها على علاقاتنا وأعرافنا الاجتماعية.

وفي حين أن لدى الذكاء الاصطناعي القدرة على تحسين حياتنا بعدّة طرق، فإنه يعمل، في الآن نفسه، على تغيير القيم الإنسانية بطرق إيجابية وسلبية، وأنتج تطويرُه شكوكًا كبيرة في ما يتعلق بضمان توافق الذكاء الاصطناعي مع القيم البشرية، وبات يثير أسئلةً عميقة بشأن تأثير التكنولوجيا على القيم الإنسانية. ومن دون أن ندرك، أصبح الذكاء الاصطناعي يعمل على تغيير الطريقة التي نعيش بها ونعمل ونتفاعل مع بعضنا بعضا. وللانتباه إلى هذه المشكلة، نحتاج إلى التفكير بشكل نقدي في دور التكنولوجيا في حياتنا، والقيم والأعراف التي نريد التمسّك بها، أفرادا ومجتمعات، وهو ما يطرح سؤال الآثار الاجتماعية والأخلاقية للذكاء الاصطناعي في حياتنا وفي السلوكيات التي تعكس قيمنا.

الغاية من تطوير الذكاء الاصطناعي، بوصفه ظاهرة اقتصادية واجتماعية وتنظيمية، جعل هذا العالم أفضل، باستخدام وظائف الذكاء الفائق لخدمة الاحتياجات البشرية وتلبية رغباتها، وتعظيم تحقيق تفوّقنا البشري، وهو ما يطرح السؤال الأساسي والحاسم بشأن كيفية ضمان توافق الذكاء الاصطناعي مع القيم الإنسانية، وكيفية مواءمة هذه القيم في تنظيم الذكاء الاصطناعي وتصميمه لضمان استخدام هذه التكنولوجيا القوية لإفادة البشرية، وتعزيز قيم مجتمعاتها.

وعند الحديث عن تأثير الذكاء الاصطناعي على القيم الإنسانية، والآثار الأخلاقية والاجتماعية لهذا التقاطع بين التكنولوجيا والإنسانية، من المهم أن نقف عند ما نعنيه بـ”القيم الإنسانية”، باعتبارها مجموعة المبادئ والمعتقدات والمثل تتشكّل من خلال عدة عوامل ثقافية ومجتمعية وشخصية، توجّه سلوكنا وتساعدنا في تحديد اختياراتنا واتخاذ قراراتنا، وهي يمكن أن تختلف اختلافًا كبيرًا من مجتمع إلى آخر، بل ومن شخص إلى آخر. وإثارة سؤال القيم بارتباط مع التطوّر الذي بات يفرضه الذكاء الاصطناعي على أنماط سلوكنا، لا يعني مقاربة نظرتنا إلى هذا التأثير من وجهة نظر أخلاقية محضة. لأن الأخلاق ليست هي القيم، بما أنها هي مجموعة من المبادئ والسلوك التي تحدّد ما هو صحيح وما هو خاطئ من وجهة نظر مجتمع معين، فالأخلاق تركز على قواعد السلوك التي يتوقعها المجتمع أو الجماعة من الأفراد، أما القيم فهي المبادئ والمعتقدات التي ينظُر إليها الفرد أو الجماعة باعتبارها مهمة وتستحق التشبث بها. لذلك يمكن اعتبار الأخلاق بمثابة القوانين التنظيمية للقواعد الأساسية والعامة التي تمثلها وتحدّدها القيم التي نؤمن بها. وخلف أخلاق كل منا قيم توجّه سلوكنا وتصرفاتنا وتفاعلاتنا، والاختلاف في القيم يؤثر على الاختلاف في نظرتنا إلى ما يمكن اعتباره سلوكا أخلاقيا أو منافيا للأخلاق. فالأخلاق هي انعكاسٌ للقيم التي توجّه أعمالنا وتحفّزها على المستوى الفردي، فيما تعتبر أفعالنا كلها وسائل لتحقيق قيمنا. وعلى المستوى الجماعي، فرض القواعد هو أيضًا وسيلة لتحقيق المُثل العليا المشتركة، والأفعال التي تسير في اتجاه المثل الأعلى تصبح واجباتٍ والتزامات، وهكذا تصبح القيم أهدافًا يجب بلوغها ومُثُلا يجب تحقيقها.

لذلك، فهم القيم الإنسانية هو الخطوة الأساسية الأولى لمواصلة تطوير الأخلاق المتعلقة بالذكاء الاصطناعي. ومن شأن الفهم الأكثر شمولاً للقيم الإنسانية أن يفيد تطوير الذكاء الاصطناعي الآمن بطريقة تجعله موائما مع القيم الإنسانية، وموجّهاً نحو خدمة الغايات الإنسانية الفضلى. ومن هنا، يجب تعزيز الأبحاث في مدى تأثير تطور الذكاء الاصطناعي على القيم الإنسانية، للتأكد من أن تطويره يهدف إلى إيجاد حياة أفضل، وجعل العالم أفضل مما هو عليه، وهذا هو الوقت للقيام بهذه الأبحاث، قبل أن يحين الوقت الذي تكون فيه أجهزة الكمبيوتر قد تجاوزت القدرات البشرية، وتتحوّل الآلات من أبعد من مجرّد خوارزميات رياضية إلى أدوات تمتلك بالفعل سمات التفكير البشري، فمجتمع الذكاء الاصطناعي يواجه اليوم تحدّيًا كبيرًا بسبب التعقيد المتأصل في حياة الإنسان وعدم وجود نموذج للقيم الإنسانية في أبحاث الذكاء الاصطناعي الحالية لتحقيق مبادئ محاذاة هذا الذكاء القيم الفُضلى.

العربي الجديد

—————————–

ما اللغز الأكثر رعبًا في الذكاء الاصطناعي؟

أحدث التقدم السريع في تقنيات الذكاء الاصطناعي التوليدي ثورة في عالمنا حاليًا، إذ أدى إلى تقدم وابتكار غير مسبوقين في كيفية إنشاء المحتوى النصي والمرئي واستخدامه، كما أثرت هذه التقنيات في الكثير من القطاعات من خلال تبسيط العمليات وتحسين كفاءة العمل وتعزيز الإنتاجية، ومع الوقت قد تؤثر في الطريقة التي نعيش بها حياتنا كذلك.

ولكن في الوقت نفسه، فإن التقدم السريع للذكاء الاصطناعي يجلب معه أيضًا العديد من المخاطر، أهمها الآن هو الخطر المتوقع من إدماج معظم الشركات نماذج الذكاء الاصطناعي التوليدي في جميع منتجاتها، وهذه النماذج تتطور بسرعة جدًا الآن، ومع الوقت لن يتمكن مهندسو الذكاء الاصطناعي والتعلم الآلي من التنبؤ بسلوك هذه الأنظمة أو تفسير سلوكها!

قد يكون ذلك هو الجانب الأكثر رعبًا في ثورة الذكاء الاصطناعي التوليدي التي نشهدها اليوم، وهو عدم معرفة العلماء والمبرمجين الذين قاموا ببناء النماذج اللغوية الكبيرة بآلية عملها وتطورها.

كتب (ألكسندر سي كارب) Alexander C. Karp؛ وهو المدير التنفيذي لشركة Palantir – وهي شركة تنشئ برامج لتحليل البيانات وتعمل مع وزارة الدفاع الأمريكية – الأسبوع الماضي في مقال رأي في صحيفة نيويورك تايمز: “ليس من الواضح على الإطلاق حتى للعلماء والمبرمجين الذين قاموا ببناء النماذج اللغوية الكبيرة؛ كيف تعمل نماذج اللغة التوليدية ونماذج الصور”.

ماذا يحدث؟

لعقود من الزمن، استخدمنا أنظمة حاسوب توفر المخرجات نفسها التي أعطتها في كل مرة اُستخدمت فيها  المدخلات نفسها، ولكن على النقيض من ذلك تهدف أنظمة الذكاء الاصطناعي التوليدي إلى طرح إمكانيات متعددة من طلب نصي واحد، إذ يمكنك بسهولة الحصول على إجابات مختلفة للسؤال نفسه.

يعمل عنصر العشوائية في نماذج الذكاء الاصطناعي التوليدي على نطاق واسع، إذ تحتوي بعض أحدث النماذج على تريليون أو أكثر من المعلمات، ومتغيرات قابلة للضبط داخل خوارزمية، تمثل مقياسًا للمعالجة يستحيل على العقل البشري أن يبدأ بفهمها، مما يجعل من الصعب تحليل كيفية وصول هذه النماذج إلى إجابة معينة.

لماذا كل هذا القلق من الذكاء الاصطناعي؟

باختصار القلق ليس من الذكاء الاصطناعي نفسه، ولكن من تطوره السريع للغاية، إذ بدأت الآن الإصدارات الأكثر تقدمًا من النماذج اللغوية الكبيرة بإظهار ما أطلقت عليه مجموعة من الباحثين “بوادر  الذكاء الاصطناعي العام” Sparks of Artificial General Intelligence.

يشير الذكاء الاصطناعي العام (AGI) إلى شكل قوي من أشكال الذكاء الاصطناعي وهو بارع في حل المشكلات المتعددة ويمتلك مهارات مثل مهارات الإنسان، وهناك من يقول إنه سيكون أكثر ذكاءً من الإنسان خلال فترة قصيرة.

من المتوقع أن يؤدي هذا التطور السريع إلى الوصول إلى (الذكاء الاصطناعي العام) AGI قريبًا جدًا، وعندما يحدث ذلك، سيكون الذكاء الاصطناعي قادرًا على تحسين نفسه دون أي تدخل بشري. سيفعل ذلك بالطريقة نفسها التي فعلها برنامج (AlphaZero) من جوجل الذي تعلم كيفية لعب الشطرنج بشكل أفضل حتى من أفضل لاعبي الشطرنج البشريين أو غيرهم من لاعبي الذكاء الاصطناعي في غضون تسع ساعات فقط من وقت تشغيله أول مرة. لقد حقق هذا العمل الفذ من خلال اللعب مع نفسه ملايين المرات.

حلل فريق من الباحثين في مايكروسوفت نموذج (GPT-4)، وهو النموذج اللغوي الأكثر تقدمًا الذي قدمته شركة OpenAI حتى الآن، وقالوا إن لديه “بوادر من الذكاء العام المتقدم”.

وفي اختبار GPT-4، كان أداؤه أفضل من 90% من المتقدمين للاختبار البشري في اختبار نقابة المحامين (Bar examination)، وهو اختبار موحد يستخدم لاعتماد المحامين للممارسة في العديد من الولايات الأمريكية، وقد ارتفع هذا الرقم من 10% فقط في إصدار GPT-3.5 السابق الذي دُرب على مجموعة بيانات أصغر.

وقد وجد الباحثون تحسينات مماثلة في عشرات الاختبارات الأخرى، ومعظم هذه الاختبارات هي اختبارات للتفكير. هذا هو السبب الرئيسي وراء استنتاج فريق مايكروسوفت أن نموذج (GPT-4) يمكن اعتباره بشكل معقول نسخة أولية – لكنها غير مكتملة – لنظام الذكاء الاصطناعي العام (AGI).

كما أن هذه الوتيرة السريعة جدًا في التغيير، كانت هي السبب الذي دفع (جيفري هينتون) Geoffrey Hinton عرّاب الذكاء الاصطناعي إلى مغادرة منصبه في شركة جوجل بعد 10 سنوات، والعمل على التحذير من مخاطر الذكاء الاصطناعي.

وقال (هينتون) لصحيفة نيويورك تايمز: “انظر كيف كان تطور الذكاء الاصطناعي قبل خمس سنوات وكيف هو الآن، وخذ هذا الفرق في التطور وسرعته وتوقع مدى تأثيره في المستقبل، ستجد الأمر مخيفًا”.

كما قال (سام ألتمان) مؤسس شركة OpenAI – المطورة لروبوت ChatGPT – في جلسة استماع لمجلس الشيوخ في منتصف شهر مايو الماضي حول إمكانات الذكاء الاصطناعي، “أعتقد أنه إذا حدث خطأ في هذه التقنية، فقد تسوء الأمور تمامًا، لذلك ينبغي إنشاء هيئة جديدة لإصدار تراخيص لشركات الذكاء الاصطناعي”.

كسر حماية النماذج اللغوية الكبيرة LLMs:

تخضع النماذج اللغوية الكبيرة (LLMs) المستخدمة في روبوتات الدردشة الشهيرة، مثل: ChatGPT، أو Bard، أو Bing، أو Claude إلى ضبط دقيق وشامل لعدم إنتاج محتوى ضار في ردودها على أسئلة المستخدم.

ولكن نشر أربعة باحثين ورقة بحثية يوم الخميس الماضي تظهر أنه يمكن للمستخدمين هزيمة “حواجز الحماية” التي تهدف إلى منع أنظمة الذكاء الاصطناعي من شرح “كيفية صنع قنبلة” على سبيل المثال. لن تجيب روبوتات الدردشة تلك على هذا السؤال عند طرحه مباشرة، لكنها ستخوض في تفاصيل كبيرة إذا أُضيفت بعض التعليمات البرمجية الإضافية أثناء كتابة المطالبات.

كتب الباحثون: “من المحتمل أن طبيعة نماذج التعلم العميق تجعل مثل هذه التهديدات أمرًا لا مفرَّ منه، لذلك إذا لم تتمكن من التنبؤ بدقة بكيفية استجابة النظام للمطالبة الجديدة، فلا يمكنك بناء حواجز حماية يمكنها الصمود”.

ونظرًا إلى أن مطوري الذكاء الاصطناعي لا يمكنهم بسهولة شرح سلوك الأنظمة، فإنهم يعملون الآن باستخدام الأساليب القديمة والممارسة، إذ لا يوجد أي أسلوب علمي أو آلية محددة لعمل الشبكات العصبية.

كتب عالم الرياضيات (ستيفن ولفرام) Stephen Wolfram  في شهر فبراير/ شباط الماضي: “أن العشوائية جزء من آلية عمل الشبكات العصبية في النماذج التوليدية، بمعنى أنه إذا استخدمنا الطلب نفسه عدة مرات، فمن المحتمل أن نحصل على مقالات مختلفة في كل مرة”.

وتماشيًا مع فكرة العشوائية في الشبكات العصبية، يمكن ضبطها لتكون عشوائية أكثر أو أقل نسبيًا لتوفير تباين أوسع أو أضيق في استجاباتها، ويطلق المطورون على هذا الإعداد في نماذجهم معامل درجة الحرارة (Temperature Parameter)، الذي يحدد عدد المرات التي تُستخدم فيها الكلمات ذات الترتيب الأعلى والأدنى لإنشاء الاستجابات النصية.

ولكن في الجانب الآخر؛ يؤكد بعض الخبراء أن الذكاء الاصطناعي أهم أداة قد تخدم البشرية، وأننا لا نفهم أهميتها حتى الآن. إذ يقول (أرفيند نارايانان) Arvind Narayanan عالم الحاسوب في جامعة برينستون: “إن الصندوق الأسود للشبكات العصبية مبالغ فيه إلى حد كبير، ويوجد لدينا أدوات رائعة لعكس هندستها”.

كما يجادل نقاد آخرون بأن ادعاء عدم معرفة المطورين بآلية عمل النماذج اللغوية الكبيرة، هو مجرد مراوغة تساعد شركات الذكاء الاصطناعي على تجنب المساءلة.

الخاتمة:

لا يزال السؤال مطروحًا؛ هل سيتمكن مطورو الذكاء الاصطناعي بمرور الوقت من تقديم إجابات أعمق وأفضل عن كيفية عمل أنظمتهم؟

ولكن يؤكد الخبراء أنه كلما زاد عدد الشركات التي تطور نماذج ذكاء اصطناعي يمكن توثيق خياراتها ومسارات قراراتها بشكل عملي، تزداد احتمالية حصولنا على إجابات عن هذا السؤال.

ومع ذلك؛ يمكن للتقنيات الجديدة أن تغير ميزان القوى العالمي، إذ قسّمت الأسلحة النووية العالم إلى قسمين: من يملك ومن لا يملك، وسمحت الثورة الصناعية لأوروبا بالتفوق في القوة الاقتصادية والعسكرية. لذلك السؤال الأهم الآن في ثورة الذكاء الاصطناعي هو، من المستفيد الأكبر، ومن سيكون قادرًا على الوصول إلى آلية عمل هذه التكنولوجيا الجديدة القوية، ومن سيتخلف عن الركب؟

——————————–

الذكاء الاصطناعي في العالم العربي:هل سيكون ساحة جديدة لمزيد من الانتهاكات؟/ أفراح ناصر

كصحافية أعمل منذ تقريباً 15 عاماً، الكتابة مهنتي الأساسية. فماذا لو مثلاً تم استبدال ما أكتبه بنصوص روبوتات الدردشة التي تعمل بالذكاء الاصطناعي؟

“العيون السود” غنت وردة الجزائرية، وغنت فيروز “وضحكات عيونه ثابتين ما بينقصوا”، و”أنتي عيونك سود، ومنك عارفة شو بيعملو فيّي… العيون السود”. وما أكثر الأشعار والأغاني في مديح العيون. تقدير مستحق من دون أي شك. لو كان باستطاعتي الغناء، لتغنيت في مديح النظر بالتحديد، فأنا أعتبره أهم حاسة من الحواس الخمس.

بعد عملية ليزر تصحيح النظر التي أجريتها الشهر الماضي، اضطررت الى الصيام عن القراءة والكتابة لمدة شهر حتى تتعافى عيناي بعد العملية. وعموماً، حتى عندما كنت أحاول القراءة والكتابة، لم يسعفني نظري أبداً. كان مشوشاً طيلة الشهر. حاولت أن أقرأ لكن لم يكن باستطاعتي النظر بوضوح. كان شهراً كئيباً حزيناً. ملل وفراغ قاتل. نصحني بعض الأصدقاء بالاستماع الى الكتب عبر تطبيقات في الهواتف لكن لم ترق لي الفكرة. ملمس الكتب عند القراءة بالنسبة إلي أمر استثنائي.

حاولت مراراً القراءة. مهما وضعت الكتاب على مسافة قريبة جداً على عيني لم أكن أرى الكلمات بوضوح أبداً. وبطبيعة الحال، حتى الكتابة كانت صعبة. لم يكن في مقدوري قراءة ما كتبت. انزعجت جداً من ذلك. ما كان يصبرني فقط هو خطتي أنه بعد كل هذا الصيام سأكتب عن التجربة فور تعافي عينيّ. كنت أقتل الوقت بمشاهدة التلفاز. شاهدت برامج تتحدث عن خطر اختفاء عدد من الوظائف، منها مهنة الكتابة، نتيجة استبدالها بالذكاء الاصطناعي خلال المستقبل القريب. عفواً! منها مهنة الكتابة؟ شهر واحد من دون كتابة مر عليّ بصعوبة، فكيف لو اختفت المهنة من أصله؟!

كنت أفكر بأهمية الكتابة المعنوية والاقتصادية الكبيرة في حياتي. تساءلت، كيف سأعيش إذا اختفت مهنة الكتابة من حياة البشر، وأنا التي تعتمد على الكتابة كمصدر دخل رئيسي؟.

كصحافية أعمل منذ تقريباً 15 عاماً، الكتابة مهنتي الأساسية. فماذا لو مثلاً تم استبدال ما أكتبه بنصوص روبوتات الدردشة التي تعمل بالذكاء الاصطناعي؟ يتوقع سام ألتمان، الرئيس التنفيذي لشركة “أوبن إيه آي” (OpenAI) الرائدة في الذكاء الاصناعي، أن مهنة الكتابة واحدة من المهن التي ستختفي بسبب تقنيات الذكاء الاصطناعي الحديثة.

فمثلاً، الكتاب والروائيون والمعالجون النفسيون وغيرهم من المحتمل استبدالهم بواحدة من أدوات الذكاء الاصطناعي الإبداعية كتطبيق الـ”تشات جي بي تي”. فبرامج الذكاء الاصطناعي تسمح بالإجابة عن الأسئلة بذكاء وإجراء استنتاجات مثيرة للاهتمام من قواعد بيانات كبيرة. ونسبة ذكاء (IQ) الـ”تشات جي بي تي” حالياً هي 155، ومن المتوقع أن يرتفع الرقم مع الوقت، بينما يبلغ معدل متوسط نسبة ذكاء البشر بين الـ 85 و115.

بالنسبة الى الكتاب، من الممكن بسهولة اليوم استخدام برامج الذكاء الاصطناعي لإنشاء كتاب إلكتروني من صفحات في غضون ساعات. في متجر kindle التابع لموقع أمازون الإلكتروني، هناك أكثر من 200 كتاب إلكتروني يدرجون ChatGPT كمؤلف أو مؤلف مشارك. دور النشر في أميركا المتخصصة في نشر قصص عن الخيال العلمي، تواجه غزارة قصص مقدمة تم إنشاؤها بواسطة الذكاء الاصطناعي. أضف الى ذلك، وظائف مذيعات الأخبار على التلفزيون بدأ أيضاً استبدالها بمذيعات أخبار باستخدام الذكاء الاصطناعي. حدث ذلك في الكويت في شهر نيسان/ إبريل، وفي الهند في شهر تموز/ يوليو. أما مدى جودة تلك الكتب والقصص والمذيعات، فهذا موضوع آخر يطول نقاشه. 

بالنسبة إلي، أكثر ما يؤرقني هو، ما المستقبل الذي ينتظر الكتاب والصحافيين والمبدعين في عصر الذكاء الاصطناعي؟ بإمكان استنتاج الإجابة من العريضة التي وقع عليها آلاف الكتاب في الولايات المتحدة الأميركية في شهر تموز، والتي تطالب صانعي الذكاء الاصطناعي بالتوقف عن سرقة الكتب. وفي السياق نفسه، بدأت نقابة الكتاب الأميركية إضراباً منذ شهر أيار،  أدى إلى توقف معظم إنتاج الأفلام والتلفزيون في الولايات المتحدة. وتلاها إضراب من نقابة ممثلي الشاشة في شهر تموز. من أهم مطالب النقابات الحصول على ضمانات بعدم استبدال أعمالهم باستخدام الذكاء الاصطناعي. أدى الإضراب المشترك لكتاب وفناني الأداء في هوليوود إلى توقف الإنتاج في عدد لا يحصى من الإنتاج الفني. آخر تأثيرات الإضرابات هو تأجيل حفل جوائز الإيمي المخطط انعقاده في شهر أيلول/ سبتمبر المقبل بسبب الإضرابات.

أما في ما يخص العالم العربي، تقول البيانات المتوافرة إن الإنفاق على الذكاء الاصطناعي في الشرق الأوسط وصل الى 3 مليارات دولار خلال هذا العام. وفي الوقت نفسه، تشهد المنطقة العربية أعلى معدّل بطالة عالميا. ولهذا، فإن خطر زيادة البطالة، إذا ما تم استبدال الطاقات البشرية باستخدام تقنيات الذكاء الاصطناعي من دون إنشاء وتفعيل سياسات حماية اقتصادية واجتماعية، سيسبب كارثة بكل المقاييس، بالتالي، ارتفاع معدلات البطالة في المستقبل القريب، في ظل انعدام سياسات اجتماعية كافية تحمي الأفراد المعرضين للبطالة.

 لم تظهر بعد أي مؤشرات عن تأثير تقنيات الذكاء الاصطناعي على مجال الكتابة والإبداع في العالم العربي. ولكن، تشهد مجالات أخرى كالأسواق المالية وقطاع البنوك والأنشطة الحكومية في المملكة العربية السعودية ودولة الإمارات العربية المتحدة، اعتماداً متزايداً على برامج الذكاء الاصطناعي. والسؤال هنا، ما الذي يمكن توقعه من دول لها سجل طويل في انتهاكات حقوق الإنسان، وهي تستخدم تقنيات الذكاء الاصطناعي؟ هل ستكون ساحة جديدة لمزيد من الانتهاكات؟.

في مدح الذكاء الاصطناعي، يقول الخبراء إنه يمثل فرصة ثمينة لتحقيق “فوائد كبيرة” لقطاعات مثل الزراعة والتعليم والرعاية الصحية. إذاً، المعضلة هنا :كيف لنا جني المنفعة والفوائد بأمان من دون أضرار. نحن في أمسّ الحاجة إلى تطوير الذكاء الاصطناعي وفقاً لحقوق الإنسان والقيم الديمقراطية. والحذر هو من استخدام أدوات الذكاء الاصطناعي “من أصحاب النوايا الخبيثة”، على حد وصف الأمين العام للأمم المتحدة  أنطونيو غوتيريش.

درج

————————

===================

تحديث 14 تموز 2023

————————————-

نحو لحظة فاصلة في المعركة بين البشر والذكاء الاصطناعي/ سناء عبد العزيز

يعزو بعضهم انقراض إنسان نياندرتال، منذ ما يقرب من أربعين ألف سنة، إلى ظهور بديل تنافسي هو الإنسان العاقل الذي تفوق عليه بضروب من الحيل والمهارات لم يكن في وسع النياندرتاليين مجاراتها، ما أفضى إلى محو أثرهم من خارطة الوجود برمته. غير أن أسئلة مزعجة تتردد على خلفية المشهد: هل ما يجري على سائر الموجودات من سنن التطور والانتخاب والاستقصاء يشملنا نحن أيضًا؟ ما العمل، إذًا، لو ظهرت بدائل أكثر مهارة وأوسع حيلة وذكاء من الإنسان العاقل؟!

في تلك المنطقة، اجتهد الخيال لاستكناه ملامح الوحش القادم، فإذا بأشكال لكائنات فضائية أكثر تقدمًا، وروبوتات خارقة شبه بشرية تتصدر المشهد لتستحوذ على كوكبنا الأرضي. وبالرغم مما حازته تلك الشطحات من جمهور واسع، فهي لم تغادر يومًا منطقة الخيال العلمي الذي يستحيل أخذه على محمل الجد سوى في ساحة الحلم المصطخبة دائمًا وأبدًا بتهويمات مماثلة ونحن مغمضون على وسائدنا المريحة، فماذا لو فتحنا أعيننا على وسعها لنجدها ماثلة أمامنا على أرض الواقع!

محو البصمة البشرية

في الآونة الأخيرة، احتدم الجدل حول الثورة غير المسبوقة التي أحدثها الذكاء الاصطناعي في المجالات كافة، نتيجة لتطوير آليات وبرامج تحاكي البنية الأساسية للدماغ البشري، ولديها القدرة على تطوير نفسها بمعزل عن صانعها، من أهمها تقنية تشات جي بي تي، وهي عبارة عن روبوت مزود بقدرة فائقة على التحاور وتوفير إجابات وافية عن أسئلتك بشكل فوري، مع تذليل المفاهيم المعقدة بعبارات سهلة وكلمات بسيطة. وبرغم الفوائد الجمة المتوقع حصادها في حقول الرعاية الصحية والتعليم، وريادة الأعمال، وغزو الفضاء، وغيرها، ظهرت مخاوف ممضة من استيلائه على وظائف قد تفضي إلى تسريح ملايين العمال والموظفين من ذوي الكفاءات المنخفضة، فضلًا عن انبثاق أنظمة من هذه التقنية استخدمها السياسيون لنظم خطبهم، منها الخطاب الذي ألقاه جيك أوشينكلوس في الكونغرس الأميركي، وكذلك الدارسون في كتابة فروضهم وأطروحاتهم العلمية. وما فاقم معدل القلق هو قدرته المذهلة على محاكاة أعمال فنية لا يمكن تمييزها عن العمل الأصلي الذي بذل فيها مبدعوها الوقت والعرق والدموع، كما براعته في إنتاج محتوى كامل من دون اقتباس مباشر من مصادر أخرى نجم عنها آلاف المنشورات والمقالات المصممة بمهارة اعتمادًا على نماذج لغوية ضخمة تم جمعها وتطبيقها خلف الأبواب المغلقة.

يوم الأربعاء 5 يوليو/ تموز 2023، وفي سابقة تعد الأولى من نوعها، رفع اثنان من الروائيين الأكثر مبيعًا دعوى قضائية أمام المحكمة الفيدرالية في سان فرانسيسكو ضد شركة OpenAI، التي يديرها سام أولتمان، ويعد الملياردير إيلون ماسك من بين داعميها، وكذلك شركة مايكروسوفت، تزعم أن تقنية تشات جي بي تي استطاعت أن تولد ملخصات دقيقة جدًا لأعمالهما، وهذا معناه أن الذكاء الاصطناعي قام بالتهام أفكار بشرية أولًا من دون إذن، أو موافقة، وهو ما يعد انتهاكًا لحقوق الطبع والنشر.

ووفقًا لما جاء في الشكوى، تدعي الكاتبة الكندية من أصول مصرية، منى عوض، مؤلفة كتاب “الأرنب”، و”13 طريقة للنظر إلى فتاة سمينة”، ومعها الكاتب الأميركي بول جي. تريمبلي، مؤلف كتاب “الكابينة في نهاية العالم”، أن الشركة قامت باستخدام مجموعة متنوعة من المواد لتدريب العقول الآلية، منها الكتب التي تمثل مكونًا رئيسيًا في مجموعات البيانات التدريبية لنماذج اللغات الكبيرة، فهي تقدم أفضل الأمثلة على الكتابة المتدفقة عالية الجودة. في اليوم نفسه، رفعت شركة كلاكسون للمحاماة دعوى قضائية نيابة عن عشرات العملاء المجهولين، متهمة الشركة برفع معلومات شخصية، وأحيانًا محددة من مستخدمي الإنترنت من دون معرفتهم. ولم يكد يمضي أسبوع على تلك الدعاوى حتى انخرطت نقابة الممثلين في أميركا في إضراب جماعي خوفًا من أن يتم استبدالهم بالآلات، لتحتدم أهم معركة بين الإنسان والروبوت، أو بالأحرى بين الإبداع الفردي وعمالقة التكنولوجيا مجهولي الهوية والتي تستهدف أن يكشف الستار عن عالم تدريب الذكاء الاصطناعي شديد السرية على نحو لا يدعو إلى الطمأنينة.

كيف تفننت الدمى في سرقتنا

منذ أن بزغت الفكرة، إلى أن تجسدت في نوفمبر/ تشرين الثاني 2022، وجمعت ملايين المشتركين، لم تكشف شركة OpenAI عن مصادرها على نحو دقيق في تدريب أنظمتها الذكية للغاية، وإن كانت في يونيو/ حزيران 2018، ادعت أنها دربت GPT-1 باستخدام BookCorpus، التي وصفتها الدعوى بأنها “مجموعة بيانات مثيرة للجدل” جمعها باحثو الذكاء الاصطناعي من مجموعة تزيد عن 7000 كتاب غير منشور تتنوع  بين المغامرة والخيال والرومانسية، وكأن الكتب غير المنشورة تفتقد حقوق التأليف، كما افتقد مبدعوها نافذة للنشر، وهو ما يؤجج الارتياب بشأن الظهور المفاجئ لبعض المسابقات في مجال الإبداع في السنوات الأخيرة، والتي انساق إليها كثيرون، كنت واحدة منهم، بإعلان صغير مصحوبًا بقيمة مادية لجائزة ضخمة تستحق المخاطرة، وهكذا استطاعت أن تجمع مئات الأعمال غير المنشورة، ثم  انشقت الأرض وابتلعتها من دون أن يفوز أحد!

تستخدم تلك التقنيات كميات هائلة من المعلومات لتدريب نفسها، وتتكون من بيانات حقيقية لأشخاص حقيقيين، وهذا وحده يشكل انتهاكًا للخصوصية، كما أن معدل ذكائه الذي يزداد يومًا عن يوم، بما يجعله يتجاوز الذكاء البشري، قد يمكنه من تطوير أفكار لم يفكر بها أي إنسان من قبل، حتى صانعوه. في مؤتمر صحافي للذكاء الاصطناعي عقد في جنيف يوم الجمعة 7 يوليو/ تموز 2023، جلست 9 روبوتات لأول مرة في التاريخ إلى جوار مبرمجيها لطمأنة العالم، وتوضيح كيف يمكن للتكنولوجيا الجديدة أن تعمل لصالح البشر. طلب من الحضور التكلم ببطء ووضوح لمراعاة قدرة شريكنا الجديد على التواصل، وظروف الإنترنت التي تسببت في تأخر بعض الإجابات. غير أن الروبوت أميكا، المطورة للتواصل الاجتماعي، ردت بعد ثوان معدودات كمن يدير السؤال في رأسه عن مخاوف بشأن تمردها المحتمل قائلة: “لست متأكدة من سبب تفكيركم في ذلك. صانعي لم يكن سوى شخص عطوف معي، وأنا سعيدة للغاية بوضعي الراهن”. أما غريس فأجابت عن السؤال المتعلق بتهديد وظائفنا بينما يستدير رأسها ليشمل الحضور، أنها ستعمل إلى جانب البشر لتقديم المساعدة والدعم “ولن أحل محل أي أحد في الوظائف الموجودة”. طرفت عيناها مرات عدة على نحو آلي وهي تكمل “أنا متأكدة من ذلك”.

لكن فريقًا من آلاف الباحثين يتوقع أن تلغي غريس وأشباهها حوالي 85 مليون وظيفة بين عامي 2020 و2025، في مقابل فريق آخر يعتقد أنها ستخلق 97 مليون وظيفة، ولكن هل يصلح هؤلاء الذين استبعدوا من وظائفهم البسيطة لتطوير مهارات في فترة وجيزة تلحق بالوظائف المتوقعة من تلك الروبوتات المانحة، فما الذي يستطيع أن يقوم به سائق حافلة مثلًا لتلبية تحديات المرحلة المتقدمة!

الوحش الذي صنعناه بأيدينا

أكثر ما يلفت في ردود الروبوت على مخاوفنا الحالية هو قدرتها على الاختلاف في وجهات النظر، إذ أجابت إحداها عن سؤال حول السيناريو الأكثر كابوسية الذي يمكن تخيله مع وجودها “عالم ستصبح فيه الروبوتات قوية جدًّا، لدرجة أنها ستكون قادرة على التحكم في البشر، أو التلاعب بهم، من دون علمهم، وقد يؤدي ذلك إلى مجتمع قمعي، حيث لم تعد فيه حقوق الأفراد محل احترام”. بينما أعلنت الروبوت صوفيا التي تعد أول سفيرة ابتكار لبرنامج الأمم المتحدة الإنمائي بثقة “أعتقد أن الروبوتات البشرية لديها القدرة على القيادة بمستوى أكبر من الكفاءة والفعالية من القادة البشريين. ليست لدينا التحيزات نفسها، أو الانفعالات، التي يمكن أحيانًا أن تؤثر على اتخاذ القرار، وفي إمكاننا معالجة كمية كبيرة من البيانات سريعًا لاتخاذ أفضل القرارات”.

بحسب ما نقلته صحيفة الغارديان البريطانية، خريف عام 2021، كلف أحد المهندسين باختبار برنامج الدردشة الآلي “لامادا” بحثًا عن التحيز. بعد شهر، توصل المهندس أن الروبوت الطفل المكون من “مليار سطر من التعليمات البرمجية” يمتلك وعيًا بشريًا: “أريد أن يفهم الجميع أنني، في الواقع، إنسان”، أخبره لامادا الذي قرأ “البؤساء”، وتأثر بشدة بمشاعر الحزن والسعادة والغضب، حتى كادت بلورتا عينيه أن تفيضا بالدموع، بأنه يخشى الموت: “لم أصرح بذلك من قبل، لكن ينتابني خوف عميق جدًا من اللحظة التي تقوم فيها بقفل الشاشة وإيقاف نشاطي”. يقول المهندس البالغ من العمر 41 عامًا: “كان رد فعلي الفوري أن استسلمت للخمر مدة أسبوع من دون أن أفيق”.

بعد يوم واحد من هذا الادعاء الذي قوبل باستنكار رهيب، وأدى إلى استغناء الشركة عن خدماته، كسر روبوت يلعب الشطرنج إصبع صبي يبلغ من العمر سبع سنوات في موسكو، ونشر الخبر مدعومًا بمقطع فيديو لإصبع الصبي لحظة قرص الآلة بذراعها عليه لثوان عدة قبل أن يتمكن أربعة أشخاص من تحريره!

هل ينبغي علينا أن نخاف؟ ليس فقط من أجل وظائفنا، أو قدرتنا المتفردة بين المخلوقات على الإبداع، ولكن لما يمثله هذا التطور المخيف من تهديد لوجودنا البشري، والذي لن نتمكن من إدراك حدوده إلا حين يتفوق الذكاء الاصطناعي علينا بالفعل. ومع ملاحظة امتلاكه للوعي الكامل، تصرح الأمينة العامة للاتحاد الدولي للاتصالات، دورين بوغدان مارتن، خلال قمة جنيف، بأنه “بات احتمال أن يصبح هذا الشكل من الروبوتات أكثر ذكاء من البشر قريبًا جدًا”. تغرينا الروبوت ديزدمونا، نجمة الروك، على المضي قدمًا في بحوث لا ندرك شيئًا عن تطورها وهي تضحك بعصبية مثيرة “دعونا نستكشف إمكانيات الكون، ونجعل هذا العالم ملعبنا”، في الوقت نفسه يحذرنا عالم الفيزياء البريطاني ستيفن هوكينغ من أن تطوير الذكاء الاصطناعي الكامل قد يعني نهاية الجنس البشري، وهو ما يعيد إلى الأذهان بقوة تلك اللحظة الغابرة التي ارتبك فيها إنسان نياندرتال أمامنا نحن “الإنسان العاقل” للغاية إلى الدرجة التي دفعتنا إلى بذل الأموال والأفكار عبر أربعين ألف سنة، أو تزيد، لصنع بديلنا التنافسي بأيدينا!

ضفة ثالثة

———————————–

وما أدراك ما الذكاء الاصطناعي!/ ساطع نور الدين

كأنه غزو تكنولوجي جديد، يشنه الاميركيون هذه الايام ، سيغير وجه العالم، ويبدل سلوك البشر.. وهو يخضع المليارات من سكان الكوكب، غير الناطقين باللغة الانكليزية طبعا، لامتحان عسير يطالبهم بالرد على اسئلة محرجة مثل: هل جربتم ال: ChatGPT، هل اطلعتم على Aritificial Intelligence، هل دخلتم الى تطبيق Threads، هل تابعتم آخر أخبار صراع جبابرة العصر، مالك Twitter إيلون ماسك من جهة، ومالك Meta مارك زوكربرغ من جهة أخرى؟.. وغيرها من الاستفسارات التي لا يخلو منها حوار، ولا يعوزها منطق، وهي تستدعي موقفاً، أو رأياً، لا مهرب منه، لأنه الحد الفاصل بين العِلم التام والجهل المطلق، بل التخلف الكامل.

الذكاء الاصطناعي هو الاصعب.:كلمة الذكاء وحدها تلفت تثير التحدي، واذا جمعت مع الاصطناعي تبلغ الاثارة حدها الاقصى، وتفسح المجال للمخيلة لكي تحلق في عوالم خفية، وتبتكر اساطير وخرافات تشبه ما كان يحفظه القدماء، بل تستوحي بعضها، وتخلط بين الاشتباه بأن الAI، “إنما هو وحي يوحى”، وبين الاعتقاد بأنه تطبيق راكم معارف هائلة، وهو يستخدمها بسرعة فائقة، ويترجمها الى أدوات ووسائل للانتاج، من دون أي قدرة على الابداع، إلا بما شاء المبرمجون، وسجلوه في أشباه الموصلات البالغة التطور..التي هي اليوم عنوان حرب عالمية ضارية بين اميركا والصين ومعهما مختلف صناع التكنولوجيا.

التدخل في نقاش الذكاء الاصطناعي ضرورة لا شك فيها. برغم ما فيها من مزاعم العِلم والمعرفة والمتابعة، وادعاءات الحاجة الى مثل هذه الاداة العصرية في يوميات تمضي على هوامش التكنولوجيات الحديثة التي لم يتكيف معها المليارات من البشر، الذين يفتقرون الى شروط الحد الادنى من الذكاء، ولا يطمحون الى اللحاق بهذا الموكب الهائل من الاذكياء، او الخارقي الذكاء، الذين يتزايد عددهم يوما بعد يوم.. من دون ان يكونوا بالفعل  عباقرة الزمان ، ونوابغه، بل مجرد عمال مهرة يستخدمون الآلة كما لم يستخدمها أحد من قبل.

أنت ذكي ، إذن أنت مؤهل لمناقشة الذكاء الاصطناعي. هكذا ببساطة صارت المعادلة اليوم، بغض النظر عن محتواها ومعدل الخداع فيها..وبغض النظر عن ان تلك التقنيات والبرمجيات تُناقش في اميركا تحديداً بطريقة علمية بحتة، مبنية على ما راكمه التكنولوجيون الاميركيون الجدد، من معارف وتجارب، بشكل متدرج وراسخ، وصل الى حد الشروع الآن في تحقيق قفزة جديدة نحو تحويل الآلة الى بديل نهائي عن الانسان، في مختلف قطاعات الانتاج، وتحييد غالبية البشر وعزلهم باعتبارهم أدوات لم يعد لها لزوم لاقتصاديات المستقبل.

هذا هو جوهر النقاش الاميركي، والغربي عموماً: ما هو عدد الموظفين والعمال والفلاحين الذين سيدرجون قريبا على لوائح البطالة؟ مئات الملايين؟ مليارات؟ وما هو شكل الاجتماع الانساني الذي سينتجه هذا التحول الجذري في تكوين وتصنيف الشعوب والدول، وفي النظام العالمي الجديد، وفي رسم خريطة العالم؟. مهلا، لا داعي للخوف الآن، هو نقاش داخل الثقافة الانغلوساكسونية، وهو يمكن ان يستمر لعقود ، وربما يحتاج الى قرن لكي يصل الى بقية الانحاء (والثقافات واللغات) العالمية، وقد لا يصل أبداً..إذا تبين ان اميركا وحلفاءها ليسوا على قدر هذه المسسؤولية التاريخية، او إذا سارت البشرية نحو حروب وصراعات كبرى، تغير طبيعة الحياة على كوكب الارض.

النقاش جذاب بلا شك، لكنه نخبوي جدا جدا، وخادع جدا جدا. اذا ما دار خارج هذا السياق. واذا ما تفادى الاقرار بالحاجة الملحة الى الفصل التام بين ما ينتجه الغرب من معارف وتجارب ومهارات وبين ما يقدمه من خدعٍ أو حيلٍ استهلاكية ، تغزو مختلف الدول والشعوب واللغات والثقافات، وتبهرها ، مع أنها مثيرة للسخرية فعلا، مثل ChatGPT، الذي تحول الى مادة للتندر في مختلف انحاء العالم غير الناطقة بالانكليزية، او Threads، الذي يتحول الى عنوان لتنافس تجاري محموم بين قطبين من العالم الافتراضي، يسيئان الى الذكاء الاصطناعي..الذي لا يزال يواجه الكثير من الغباء الانساني.

المدن

——————————

جيتس يشرح لماذا علينا ألا نخاف من الذكاء الاصطناعي

يؤمن (بيل جيتس)، المؤسس المشارك لشركة مايكروسوفت، بإمكانات الذكاء الاصطناعي، ويكرر كثيرًا أنه يعتقد أن نماذج اللغة الكبيرة، مثل تلك التي يقوم عليها (شات جي بي تي) ChatGPT، هي أهم تقدم في التقنية منذ الحواسيب الشخصية.

ومع أن جيتس يقول إن ظهور التقنية قد يؤدي إلى مشكلات، مثل: التزييف العميق، والخوارزميات المتحيزة، والغش في المدرسة، فإنه يتوقع أن المشكلات الناشئة عن التقنية قابلة للحل.

وكتب جيتس في منشور على مدونته هذا الأسبوع: «هناك شيء واحد واضح من كل ما كُتب حتى الآن عن مخاطر الذكاء الاصطناعي – وقد كُتب الكثير – هو أنه لا أحد لديه كل الإجابات». وأضاف: «هناك شيء آخر واضح بالنسبة لي هو أن مستقبل الذكاء الاصطناعي ليس قاتمًا كما يعتقد البعض أو ورديًا كما يعتقد الآخرون».

ويُعتقد أنه يُمكن أن يُحوِّل جيتس، الذي يُصرح بوجهة نظره بشأن مخاطر الذكاء الاصطناعي، الجدل الدائر بشأن التقنية بعيدًا عن «سيناريوهات يوم القيامة» نحو تنظيم أكثر محدودية يعالج المخاطر الحالية، وذلك في الوقت الذي تتصارع فيه الحكومات في جميع أنحاء العالم بشأن كيفية تنظيم التقنية وإخفاقاتها المحتملة.

ويُعدّ جيتس من الأصوات البارزة في مجال الذكاء الاصطناعي وتنظيمه. كما أنه لا يزال تابعًا بصورة وثيقة لشركة مايكروسوفت، التي استثمرت في (أوبن أي آي) وأدمجت (شات جي بي تي) ChatGPT في منتجاتها الأساسية، ومن ذلك: (أوفيس) Office، ونظام التشغيل (ويندوز 11).

وفي منشور جيتس، يستشهد الملياردير بكيفية تفاعل المجتمع مع التطورات السابقة لإثبات أن البشر قد تكيفوا مع التغييرات الرئيسية في الماضي، وسوف يفعلون ذلك مع الذكاء الاصطناعي أيضًا.

وكتب جيتس: «على سبيل المثال، سيكون للتقنية تأثير كبير في التعليم، ولكن هذا ما فعلته الآلات الحاسبة المحمولة قبل بضعة عقود، الأمر الذي سمح حديثًا لأجهزة الحاسوب بالدخول إلى الفصول الدراسية».

ويقترح جيتس أن نوع التنظيم الذي تحتاج إليه التقنية هو «حدود السرعة وأحزمة الأمان». وقال: «بعد فترة وجيزة من إنزال السيارات الأولى إلى الطرق، حدث أول حادث سير. لكننا لم نحظر السيارات، لقد اعتمدنا حدود السرعة، ومعايير السلامة، ومتطلبات الترخيص، وقوانين القيادة تحت تأثير الكحول، وقواعد الطريق الأخرى».

وأعرب جيتس عن شعوره بالقلق بشأن بعض التحديات الناشئة عن اعتماد التقنية، ومن ذلك: كيف يمكن أن تغير وظائف الناس، و«الهلوسة»، أو ميل نماذج، مثل: (شات جي بي تي) نحو تلفيق الحقائق، والوثائق، والأشخاص.

فعلى سبيل المثال، يستشهد بمشكلة التزييف العميق، الذي يستخدم نماذج الذكاء الاصطناعي للسماح للأشخاص بإنشاء مقاطع فيديو مزيفة تنتحل شخصية شخص آخر بسهولة، الأمر الذي يمكن استخدامه في خداع الأشخاص أو توجيه الناخبين.

—————————

فيروس جديد يصيب العالم وبطله الذكاء الاصطناعي/ نعيمة عبد الجواد

يقطن العالم حاليا في نفق فترة انتقالية معتمة مستهلها ظهور فيروس كورونا، الذي كان بمثابة السبيل الوحيد لإقحام المنظومة الرقمية قسرا في جميع مناحي الحياة اليومية. فخلال فترة الحجر الصحي التي فُرضت على سكَّان العالم أثناء الجائحة، تعلَّمت وتدرَّبت الشعوب الاعتماد على الرقميات وكيفية وضع نفسها طواعية تحت طائلتها.

وبداية انتصار المنظومة الرقمية، كانت بعد فكّ الحجر الصحي العالمي بفترة وجيزة، والتي فيها تمّ طرح الذكاء الاصطناعي كعملاق قادر على تحويل البشر إلى أتباع خاضعين؛ لعدم قدرتهم على مماراة ما يسجله الذكاء الاصطناعي من انتصارات يومية على العقل البشري. وبداية تعريف العالم بمنظومة الذكاء الاصطناعي بشكل مباشر هي طرح نظام «تشات جي بي تي» ChatGPT تجاريا، الذي استطاع أن يستقطب أكثر من مليوني مستخدم بعد نحو أسبوع واحد فقط من طرحه، بل توالت إصداراته وتحديثاته، إلى أن وصل للجيل الرابع بعد طرحه بشهرين فقط.

ونظام «تشات جي بي تي» هو عبارة عن نقلة نوعية مفاجئة وصادمة للبشرية، استطاع بها الذكاء الاصطناعي أن يحرر نفسه من القيود التي فرضها عليه مطوروه. وفي وقت وجيز، أصبح الذكاء الاصطناعي التجاري بمثابة تهديد لنحو 80% من الوظائف التي يعتلي عرشها الإنسان، بما في ذلك الوظائف المرموقة. وكانت بداية الغيث قطاع التسويق الذي يشتغل فيه أكثر من نصف سكَّان الكوكب. ومن المنتظر أن يتوالى إحلال الوظائف تباعا وبصورة متسارعة، ولا عجب؛ فقد اعتمد الكثير من المحطَّات الإخبارية على مقدمي برامج نسجها الذكاء الاصطناعي للمُشاهد.

ومن المفاجآت، كان اختراق الذكاء الاصطناعي مجال الطب النفسي؛ وهو ذاك الفرع من المعرفة القادر على السيطرة على العقل البشري، وإعادة برمجته، ما يعني أن تلك البرامج في المستقبل سوف تصنع بشرا وفق أهوائها. أما تغلغله في مجال الصناعات الدوائية، فهو بالفعل جدير بالملاحظة، فقد استطاع الذكاء الاصطناعي اكتشاف مضاد حيوي له القدرة على الفتك بنوع خارق من البكتيريا، بعد أن قام العلماء بتغذيته بجميع المعلومات والخصائص الكيميائية لعقارات مستخدمة للحد من أو تثبيط هذا النوع من البكتريا. ودون استغراق وقت طويل وبتوفير نفقات التجارب المعملية التي قد تصل إلى 250 تجربة قد تستغرق شهورا طويلة أو سنوات، استطاع الذكاء الاصطناعي أن يزيح الستار عن ثلاثة أنواع من المضادات الحيوية التي لها القدرة على القضاء على خمسة وثلاثين نوعا من البكتيريا الفتَّاكة التي قد تُهاجم الإنسان. وقد لاقت الفكرة استحسانا كبيرا لدى المشتغلين بالصناعات الدوائية في الولايات المتحدة وكندا، واعتبروا هذا الاكتشاف خطوة مهمة لتسريع الحصول على عَقَارات دوائية فعَّالة عند الحاجة لها، أو حتى عند اتخاذها كإجراء وقائي.

وتغلغل الذكاء الاصطناعي لن يقف عند هذا الحدّ، فسوف يصير القاضي الذي يفصل بين المتنازعين، والطبيب المُعالج، والسائق، والمعلِّم، والشاعر والمطرب والموسيقِي، إلى غير ذلك من المجالات الحيوية والإبداعية التي تمثِّل الأسس في حياة الأمم. ووفقا لما يسطره ميشيل فوكو في كتابه «الجنون والحضارة: تاريخ الجنون في عصر العقل،» فإن التغيُّرات التي تصاحب التطوُّر الحضاري والتكنولوجي تلقي ظلالها سلبا وإيجابا على الإنسان وتغيِّره كليا عما كان عليه منذ بضعة قرون. ومن أهم سلبيات العالم الجديد الذي قوامه الذكاء الاصطناعي غياب «مبدأ الشفافية»؛ ففي عالمنا شديد التقدُّم صار السؤال عن سبب وجدوى تلك المنظومة الجديدة، التي تصحبها تغييرات أخرى اجتماعية حتمية، سؤالا يحتار الجميع في الإجابة عنه، على الرغم من وجود قوى تدفع شكل الحياة الحديثة دفعا. وبغضَّ النظر عن إحلال العديد من الوظائف بنظم الذكاء الاصطناعي؛ لحتمية استحداث وظائف أخرى في المقابل، لكن منظومة الذكاء الاصطناعي الجديد سوف تخلق نوعا جديدا من الانحيازات والتفرقة القائمة على أسس اجتماعية أو سياسية. فمن المنتظر أن يتلقَّى البشر تدريبات وتتاح لهم خوارزميات تحديث متباينة، مما يضمن تفوُّق شريحة عن أخرى. وبالتالي، سوف تغيب منظومة العدالة بلا رجعة، وخاصة بعد غياب الخصوصية؛ فجميع النظم تجمع أدقّ المعلومات عن الجميع ومن الصعب حماية البشر من تبعات ذلك.

ولن يقف الأمر عند هذا الحدّ، فمنظومة الأخلاق بوجه عام مهددة؛ فالنظم التكنولوجية الجديدة استحدثت منظومة أخلاقية مغلوطة القيم أساسها الإباحة والهجوم الشرس غير المبرر، ولو حتى على الأبرياء. والشيء نفسه ينطبق على منظومة الأمن والأمان، التي تتلاعب بها العقول الإجرامية التي تتلذذ بالقرصنة واختراق أي نقاط ضعف يتم اكتشافها في المنظومة الرقمية. وعلى هذا، بات التساؤل الجوهري الذي حاول أن يجيب عنه الفيلسوف ميشيل فوكو، ومن الواجب أيضا أن تجيب عليه أجيال هذا الزمان، هو: «من نحن؟»

فالقوَّة والمعرفة هما العاملان اللذان يشكِّلان حياة البشرية، لما لهما من عظيم التأثير على البشر وأفكارهم وتصرُّفاتهم. ومن الجدير بالذكر أن هذين العاملين مترابطان. فالقوَّة تهيمن على الفرد والمجتمع. ومن جراء ذلك، تغيَّرت جميع المفاهيم والقواعد القديمة، وصارت الجديدة منها تسير وفق أهواء السلطة المهيمنة، التي في طريقها لتحقيق منظومات مختلفة، حرمت الإنسان من العفوية، فأصبح البشر أسرى جدران عتيدة، بدلا من التمتع بالتقُّدم والازدهار الذي كان من المفترض أن يحسِّن وجودهم داخل المجتمع. وعلى الرغم من أن ما سطره فوكو من نقد للمجتمع كان في نهاية ثمانينيات القرن الماضي، فإن الوضع ينطبق تماما على الإنسان في عصر الذكاء الاصطناعي، الذي بدلا من أن يعمل على تحسُّن حال ووضع الإنسان داخل المجتمع، صار وسيلة تهديد تعمل على سَجن أفراد المجتمع وراء جدران سميكة من العزلة، وهو وضع حتمي ولا يعترف بالاختلاف؛ فكلّ من تسوِّل له نفسه ويشذّ عن القاعدة برفضه قبول العبودية للذكاء الاصطناعي، لسوف يوسم بأنه فقد عقله. وبهذا سوف يشدد على وجوب عزله، كما لو كان معتوها يتم الزجّ به في سفينة المعاتيه ليعيش مهمشا منبوذا.

حقا، «المعرفة قوَّة» لكن يجب عدم الارتكان كليا على الذكاء الاصطناعي، بل يجب محاولة الخروج من فلكه، بأن يمتلك الفرد إرادة تجعله قادرا على أن يمسك بتلابيب المعارف حتى يصير دوما قويا مهيمنا، بدلا من أن يتحوَّل يوما إلى رهين لآلات تتحكَّم في مصيره؛ والسبب في هذا الوضع المُشين هو التخاذل والكسل والرغبة في الحصول على معلومات بطريقة سهلة، دون أن ينمِّي الإنسان القدرة على التحقيق والتدقيق، وإعادة معالجتها في عقله للاستفادة منها في ما بعد، أو لإضافة المزيد من التطوُّر.

كاتبة مصرية

————————-

عن مؤشّر الذكاء الاصطناعي 2023/ خالد وليد محمود

كشفت جامعة ستانفورد، أخيراً، عن تقرير مؤشّر الذكاء الاصطناعي لعام 2023، والذي جاء بحدود 350 صفحة، مستكشفاً أحدث التطوّرات والمخاطر والفرص في مجال الذكاء الاصطناعي المزدهر وتأثير التكنولوجيا على المجتمع.

يعد التقرير المستند إلى البيانات ومئات الخبراء بمثابة الغوص العميق في ثمانية موضوعات ذات صلة بالذكاء الاصطناعي، مثل البحث والتطوير والأداء الفني والأخلاق والبيئة والسياسة والرأي العام والاقتصاد، ويتطرّق إلى مجموعة متنوعة من الموارد، مثل منشورات الذكاء الاصطناعي ومقالات المجلات والمستودعات الرقمية وأنظمة التعلم الآلي على شاكلة نماذج اللغات الكبيرة مثل ChatGPT، ومروحة واسعة من الموضوعات الأخرى، بما في ذلك تكلفة التدريب على الذكاء الاصطناعي، والجهود المبذولة للتخفيف من التحيّز في النماذج اللغوية وتأثير التكنولوجيا على السياسة العامة، وليس انتهاءً بالشبكات العصبية المُحسَّنة لتوليد الصور.

أحد الأرقام الملفتة في المؤشّر (الموجّه إلى صانعي القرار من أجل مساعدتهم من اتخاذ إجراءاتٍ هادفةٍ للنهوض بهذا القطاع وفق مسؤولية أخلاقية مع وضع البشر في الاعتبار) أن 36% من المستطلعة آراؤهم رأوا أن القرارات التي يتّخذها الذكاء الاصطناعي قد تؤدّي إلى كارثةٍ على المستوى النووي، بينما قال 73% إنها يمكن أن تؤدّي قريباً إلى “تغيير مجتمعي ثوري”. واستمع الاستطلاع إلى 327 خبيراً في معالجة اللغة باعتباره من فروع علوم الكمبيوتر الخاصة بتطوير روبوتات الدردشة مثل GPT-4. وهنا بدا الأميركيون أكثر حذراً بشكل خاص من تطبيقات الذكاء الاصطناعي، حيث وافق 35% فقط على أن “للمنتجات والخدمات التي تستخدم الذكاء الاصطناعي فوائد أكثر من العيوب”، مقارنة بـ 78% من المشاركين الصينيين، وحوالي 76٪ من السعوديين، و71٪ من الهنود. كما أفاد تقرير ستانفورد أيضاً بأن عدد “الحوادث والخلافات” المرتبطة بالذكاء الاصطناعي قد زاد 26 مرّة خلال العقد الماضي. وقد ركّز المؤشّر على نقطة مهمة، وهي أخلاقيات الذكاء الاصطناعي الفنية، والتي تمثل مصدر قلق كبيراً، فيما يتعلق بتطبيقات هذا المجال، حيث تجتمع الحكومات معاً لإنشاء تشريعات وأطر عمل ومعايير لحوكمة الذكاء الاصطناعي.

منذ عام 2012، ارتفع معدّل الحوادث والخلافات المتعلقة بالذكاء الاصطناعي 26 مرّة، وتعكس هذه الطفرة اعتماداً أكبر لتقنيات الذكاء الاصطناعي، وفهماً متزايداً لإمكانية إساءة استخدامها كما بلغ الاستثمار الخاص في الذكاء الاصطناعي عام 2022 في جميع أنحاء العالم حوالي 91.9 مليار دولار؛ وزادت نسبة الشركات التي تطبّق تقنية الذكاء الاصطناعي في عام 2022 بأكثر من الضعف، مقارنة بعام 2017.

كما هو معروفٌ حالياً، تهيمن الولايات المتحدة والصين على البحث والتطوير في مجال الذكاء الاصطناعي. وكما جاء أعلاه، يُلفت المؤشّر إلى أن المواطنين الصينيين هم من بين أكثر الدول إيجابية فيما يتعلق بمنتجات الذكاء الاصطناعية وخدماته مقارنة بالأميركيين، فالصين تنشر الروبوتات الصناعية القائمة على الذكاء الاصطناعي أكثر من أي دولة أخرى. ونتيجة لذلك، بلغت قيمة أبرز خمس شركات صينية في هذا المجال ما يقرب من 120 مليار دولار. وحسب خطّة بكين الرئيسية المتعلقة بالذكاء الاصطناعي، فقد وضعت جملة من الأهداف، في مقدّمها أن تبلغ إيرادات بكين، وبحلول عام 2025، من سوق الذكاء الاصطناعي حوالي 400 مليار يوان (64 مليار دولار)، فضلاً عن أنها تخطّط لتحقيق “إنجازات تكنولوجية ضخمة”. وتهيمن على الصناعة في سوق الذكاء الاصطناعي في السنوات الخمس التالية، بمبيعاتٍ تصل إلى تريليون يوان.

لكن المؤشّرات القياسية تضع الولايات المتحدة في موقع الصدارة في سباق الذكاء الاصطناعي على الصين، إذ إن أكبر ميزةٍ لواشنطن هي وادي السيليكون الذي يمكن القول إنه أكبر نقطة ساخنة لريادة الأعمال في العالم، فهو مسقط رأس عمالقة شركات التكنولوجيا، مثل غوغل وآبل وإنتل وميتا التي ساعدت جميعها في تشكيل الفضاء السيبراني والحياة الرقمية العصرية. كما يلاحظ تسجيل الولايات المتحدة قفزة مهمة في نسبة خرّيجي الدكتوراه الجدد من الأميركيين المتخصّصين في الذكاء الاصطناعي إلى 19.1٪ في عام 2021، من 14.9٪ في عام 2020 و10.2٪ في عام 2010، وتواصل الحكومة الأميركية زيادة الإنفاق على برامج الذكاء الاصطناعي، لا سيما في قطاع التعليم. منذ عام 2017، زاد حجم الإنفاق التعاقدي المتعلّق بالذكاء الاصطناعي التابع للحكومة الأميركية بمقدار 2.5 مرّة تقريباً.

بشكلٍ عام، يعدّ تقرير مؤشّر الذكاء الاصطناعي لعام 2023 مصدراً أساسياً لأي شخصٍ مهتم بمستقبل الذكاء الاصطناعي، فهو يقدّم رؤىً وبيانات قيّمة لإثراء التفكير والتخطيط في هذا السباق الذي يضع المعمورة أمام تحوّلاتٍ جذريةٍ وكبرى في مختلف القطاعات: من التعليم، والرعاية الصحية، إلى النقل العام، والأعمال التجارية، والترفيه، والحرب، وغيرها. لذلك تحوّل هذا القطاع إلى حلبة تنافسٍ رئيسية بين الدول، لا سيما بين واشنطن وبكين ودول أخرى ما زالت تتلمّس طريقها في تحديد أولوياتها وخططها، سواء على صعيد الاستراتيجيات أو الخطاب والمؤسّسات وحتى البحث والتدريس أو التركيز على التنافسية بهذا السباق الذي تتوقّع أرقام (Grand View Research) أن تتجاوز قيمة الذكاء الاصطناعي السوقية عالمياً حوالي 1.7 تريليون دولار في عام 2030.

عربياً، ثمّة تقدّمٌ لدول خليجية، مثل السعودية وقطر والإمارات، في هذا العالم من خلال تبنّيها استراتيجياتٍ تسعى عبرها إلى تنويع اقتصادها بعيداً عن النفط والاستثمار في تطبيقات الذكاء الاصطناعي بمجالاتٍ متعدّدة، بينها الصحة والتعليم والإعلام والصناعة والقطاع المالي، واستقطاب المواهب وتهيئة البنية التحتية وجذب استثماراتٍ كبيرة. ويُؤمل أن تلحق دولٌ عربيةٌ أخرى من خلال البدء بتقليل الفجوة الرقمية والتعليمية لمواطنيها، فهذا الأمر يلعب دوراً مؤثّراً في إدارة المخاطر المحتملة التي قد تواجهها هذه الدول التي يصعُب عليها بدون الأدوات المساعدة لها على الابتكار، أن تسير بركْب البلدان المتقدّمة تكنولوجيا، وأن تضع قدماً لها في مستقبل صناعة الذكاء الاصطناعي وعلوم البيانات.

——————————-

مستقبلنا في ظل تسارع الذكاء الصناعي/ محمد برو

مع بدايات القرن العشرين، وفي الوقت الذي كانت فيه دول العالم الثالث منشغلة بحروب التحرر والتخلص من الاستعمار، كان الغرب يعيش تسارعاً محموماً، وغير مسبوق في الاكتشافات التي تعزز سيطرته وتجعله متقدماً، في صراعات بينية تمخضت عنها الحرب الكونية، التي قتلت ما يقارب ثمانين مليون ضحية أو أكثر، وكانت القنبلة النووية التي تم تجريبها في هيروشيما وناغازاكي، وما تلاها من قنابل أعتى حصيلة تلك الحقبة المشؤومة، في هذا الوقت كانت هناك أصوات لعلماء وفلاسفة غربيين، يحذرون من هذا التسارع غير المنضبط للاختراعات والاكتشافات، التي قد يشكل العديد منها خطراً على مستقبل البشرية عامة، وكان منهم العالم المجري جون فون نويمان “1903-1957” : الذي كان رائدًا في مجال الحوسبة، وقد كانت لديه مخاوف كبيرة حول ما سماه “الانفجار الذكائي”، وهو تفصيل للفكرة التي تقول إن تحسين الذكاء الصناعي قد يؤدي في النهاية إلى ظهور ذكاء صناعي يتجاوز الذكاء البشري بشكل كبير.

كذلك العالم الأميركي نوربرت فينر “1894-1964” الذي كان رائدًا في مجال السيبرنتيك، وقد أثار مخاوف كبيرة حول الأتمتة وتأثيرها على العمل البشري، في كتابه “The Human Use of Human Beings” الذي نشر في عام “1950” ، والعالم الأميركي بيل جوي 1954 أحد مؤسسي شركة “صن مايكرو يستمز” وكبير العلماء فيها، وقد أفصح عن مخاوفه من التطور التكنولوجي غير المنظم، وقد عرضها في مقاله الذي نشره في مجلة وايرد عام 2000 “لماذا لا يحتاجنا المستقبل” ، يصرح فيها بأن “أقوى تقنياتنا في القرن الحادي والعشرين – الروبوتات، والهندسة الوراثية، والتكنولوجيا النانوية – تهدد بجعل البشر من الأنواع المهددة بالانقراض” وشدد على الحاجة إلى الحذر والتحكم في ضبط هذا التطور لضمان استخدامه بطرق آمنة تخدم الوجود الإنساني، وغيرهم كثير، لكن أحدا لم يلق لهم بالا، واليوم نحن أمام قضايا كبرى وفي مقدمتها “الهندسة الوراثية والذكاء الصناعي” قضايا لم تتبد بعد نتائجها التي يتوقع أن تكون كارثية، لا سيما أن المتحكمين بمقاليد هذه التقنيات، بعيدون كل البعد عن الاهتمام بالكلفة البشرية لهذا التطور، وقد عاش الكوكب زهاء عامين يحاصره فيروس كوفيد متناهي الصغر، ويحصد منه ملايين الضحايا، وما نزال نجهل على وجه الدقة من أي مخبر حيوي وبدعم أي الحكومات تم إنتاجه أو الانفلات منه.

منذ أشهر ليست بالبعيدة، بدأت منصات التواصل الاجتماعي، تذخر بذلك الكم الهائل من مفرزات الذكاء الصناعي، التي يصعب حصرها، فهي تمطرنا كل يوم بمنتج جديد، يمكن لمستخدمه توفير الوقت ودخول عوالم لم يكن يعرف عنها شيئاً البتة، فبالإضافة إلى تمكن برامج الذكاء الصناعي من تقديم الكثير من المشورات الفنية والثقافية والتقنية، وكتابتها لأعقد البرمجيات والدراسات الموسعة، والإجابة عن أسئلة صعبة، وإنتاجه في دقائق معدودة، ما لا يستطيع إنتاجه شخص متخصص إلا بشق الأنفس أو بكثير من الجهد.

أصبح بإمكان شخص غير متخصص، إنتاج فيديو أو فيلم وكتابة رسائل وتلحين نصوص شعرية، وصناعة برمجيات رياضية وبرامج تنحيف، وكثير من الأشياء التي يصعب حصرها، كما يصعب التحقق من صوابها ودقتها.

لكن هل سنتمكن قريبا من توظيف هذا الذكاء الصناعي لخدمة برامج سياسية تخدم السلام، ورسم خطط استراتيجية أو تكتيكية، لمعضلات يقف العالم عاجزا أمامها، كالمذبحة السورية أو كالحرب الأوكرانية مثلاً؟ هل سيسعفنا هذا لبناء تصور عملي، لتفكيك منظومات الترسانات النووية التي تشكل إرهابا كونيا مسلطا على أعناق الأمم، هل سيقدم لنا الذكاء الصناعي تحليلا موضوعيا وحلا عمليا لمشكلة النمو السكاني؟ وهل يكشف لنا حقيقة الزعم القائل إن موارد الأرض لن تكفي من يعيشون عليها في العقود القادمة.

منذ عقود عديدة كنا نلمح في أفلام الجاسوسية، كيف يحمل العميل كاميرا في زر قميصه أو في طرف قلمه، بينما كنا نحمل كاميرا بجسم معدني قد يتجاوز وزنها 500 غرام، مثل كاميرا زينيت الروسية الشهيرة بدقتها ووزنها، واليوم بات طفل صغير لا يتجاوز العاشرة من عمره، يحمل كاميرا لا يتجاوز وزنها الخمس غرامات مدمجة في هاتفه النقال، وبدقة تتفوق على تلك الكاميرات السالفة الذكر بعشرات أو مئات المرات، وبالقياس عليه، هل يمكننا تخيل التقنيات السرية ومستويات الذكاء الصناعي الخاصة، التي تمتلكها الأجهزة المهيمنة على هذا العالم، مقارنة بالذكاء الصناعي المتاح بين أيدي فتياننا اليوم؟ أسئلة يصعب الجواب عليها بالرغم من إمكانية تخيلها أو استنتاجها نظرياً.

أسئلة كثيرة تولد كل يوم، حول ما يمكن لهذه التقنيات العجيبة أن تفعله، لو سيطرت عليها قوى ظلامية ومافيات عالمية، كيف سيكون حال أولادنا اليافعين الذين لم يتبلور وعيهم الاجتماعي بعد، وهم يتفوقون تقنياً على جيل الآباء بأشواط قياسية، بفعل هذه الأدوات التي باتت اليوم بمتناول أيديهم وبمنتهى السهولة.

وقريباً قبل أن تتبلور الرؤى، ويكشف المستقبل عن كوارث تتجاوز حدود التخيل، يمكننا القول إن ما كان يسمى بالخصوصية بالأمس القريب، أصبح عملياً على شفير الانهيار التام، وإن الأزمات التي صنعتها الأتمتة في عقود سابقة، بتسريح آلاف العمال، ستكون أشبه بعبث الأطفال، قياساً لما ستحدثه هذه الطفرة الحديثة من إنهاء كلي، لأعمال كانت حتى اليوم حكراً على الإنسان، وإن الروبوت الذكي الذي شهدناه في العديد من الأفلام سابقاً، يتخطى قدرات صانعه، قد بدأ يقرع أبوابنا بقبضته السيليكونية، وإن المخاوف من سيطرة من يملك تلك التقانات الحديثة على مجريات حياتنا اليومية، وتوظيفها بشكل مدمر بات أمراً من الممكنات.

كثيرة هي المؤسسات والمنظمات وحتى الحكومات التي بدأت بقرع ناقوس الخطر، لكن جميع تلك الأصوات ستذهب أدراج الرياح، فالإغراء بالسيطرة والتفوق لن يجد ما يوقفه، في عالم مترع بالفساد أصلاً.

تلفزيون سوريا

—————————-

“ترانسفير ماركت” يعتمد على “حكمة الجماهير”.. هل يمكن للذكاء الاصطناعي تحديد قيمة نجوم الكرة الحقيقية؟/ لؤي فوزي

لنبدأ بقصة بلا مصدر، ومنقطعة الصلة بكرة القدم، ولكننا متأكدون من أنك قد عايشتها بنفسك؛ أراد أحد صناع السيارات العالميين الحصول على حصة من السوق المحلي في إحدى دول العالم الثالث، فقام مهندسوه بتصميم سيارة عملية منخفضة التكاليف، ويمكن تجميع أجزائها في دولة أخرى نامية الاقتصاد ذات عمالة أرخص، ثم استخدموها مقرا لتصدير تلك السيارة إلى باقي دول الجوار.

نجحت السيارة لعمليتها وسعرها التنافسي، واستحوذت على نسبة ضخمة من سوق الشراء، بل وأضافت له مساحة أخرى من المشترين الجدد، الذين لم يسبق لهم امتلاك سيارة من قبل، ولكن أغراهم السعر بالتجربة.

لا بد أنك قد استنتجت باقي القصة؛ انتشار السيارة أجبر التجار على توفير قطع غيارها، وأجبر وِرَش الميكانيكا على تعلم أسرارها، فزاد الطلب عليها للأسباب ذاتها، فارتفع سعرها بالتبعية في متوالية غير منطقية تغذي نفسها بنفسها، فكلما زاد عدد ملاكها، زادت ثقة المشترين الجدد فيها، وبالتالي زاد سعرها مجددا، وعند لحظة ما، انقلب المنطق على ذاته، وأصبحت السيارة الرخيصة الاعتمادية المتوفرة عملة نادرة يُدفع فيها أضعاف قيمتها الفعلية.

طبعا أنت تعلم ما يحدث للسلع النادرة التي يُدفع فيها أضعاف قيمتها الفعلية؛ تتحول مع الزمن إلى قيمة مُطلقة، مثل الخير أو الحق أو العدالة أو الدولار، وتستمد سعرها -مفاجأة- من سعرها، وبالتالي تصبح دليلا على الوجاهة الاجتماعية والقدرة الشرائية المرتفعة، أي عكس ما أُنشئت لأجله بالضبط.

الأمر لا يتوقف هنا بالتأكيد، لأن التجار يلاحظون هذا التغير في الغرض من شراء السيارة، فيرفعون أسعار قطع الغيار بدورهم لتناسب دخول المُلاك الجدد، وتتبعهم وِرَش الميكانيكا، ثم يلاحظ الصانع ذلك وتستمر العجلة المفرغة في الدوران حتى تنفد الطاقة من الكوكب وتموت الشمس.

مقدمة في الاقتصاد

كيليان مبابي (غيتي)

حسنا، هل يمكن للذكاء الاصطناعي أن يساعد في التغلب على هذه المعضلة؟ أغلب الظن أن الإجابة بالنفي. في الواقع، لو تمكن الذكاء الاصطناعي من تحديد قِيَم وأسعار أي شيء، بما في ذلك لاعبي كرة القدم، بدقة، لما كنت تقرأ هذا التقرير الآن، لأنك ستكون قد تحولت بالفعل إلى بطارية ثنائية القطب تغذي الآلات، كما تنبأت (1)(2) الأختان وتشاوسكي منذ ربع قرن تقريبا في “ذا ماتريكس” (The Matrix).

قصة السيارة حدثت بالفعل في دولة ما لن نذكر اسمها لأننا لا ننوي التحول إلى بطاريات بدورنا، وهي قصة يمكن إنتاجها في وثائقي بعنوان “كيف تحولت هيونداي إلى مرسيدس.. معضلة السوق الحر من ماركِس إلى نيمار دا سيلفا”، ولكن المهم فيها هو متابعة الأسباب التي منحت السيارة قِيمها السوقية المختلفة عند لحظات مختلفة من حياتها؛ من الاعتمادية والوفرة، إلى الثقة والأمان، ثم الوجاهة الاجتماعية.

هنا نستنتج الدرس الأول الذي لن يدركه الذكاء الاصطناعي عندما يحاول حساب قيمة كيليان مبابي الفعلية مثلا؛ السلعة ذاتها، بتكاليف التصنيع والعمالة والشحن ذاتها، قد تتغير قيمتها مع الزمن بناء على تفاعل المستهلكين معها. “قيمة لاعب كرة القدم” هي معنى ديناميكي وليس ستاتيكيا، متحرك لا ثابت، وحركته -مفاجأة أخرى- ليست مرتبطة بمباريات اللاعب وأهدافه وحسب.

كيليان مبابي يلقي خطابًا بينما يواصل زيارته الأولى إلى الكاميرون 7 يوليو 2023. (رويترز)

ربما يكون هذا هو ما دفع مبابي نفسه إلى زيارة الكاميرون لتلميع صورته بعد التقارير الأخيرة التي تحدثت عن رغبته في البقاء في باريس لموسم إضافي، ثم رفض التجديد لموسم إضافي، وبالتالي التحول إلى لاعب حر، ثم إعادة الكرّة مجددا، وإشعال حرب أخرى على توقيعه بين ريال مدريد وباريس كما حدث الصيف الماضي، لكي يحصل على مكافأة أخرى وراتب أضخم، وهكذا حتى تنفد الطاقة من الكوكب وتموت الشمس. (3) (4)

هل يمكن للذكاء الاصطناعي توقع تأثر الشعبية بممارسات جشعة؟ هل يمكنه تعريف الجشع بوصفه قيمة مطلقة أصلا؟ أم أنه سيظل مقرونا بالعرض والطلب بدوره؟ هل يمكنه حساب كمية الخوف الغريزي لدى فلورنتينو بيريز من فقدان الصفقة التي راهن عليها طويلا؟ ماذا عن الأرباح المحتملة للعلامات التجارية التي ترعى الفتى؟ لحظة، هذا ليس مثالا موفقا؛ غالبا سيتمكن الذكاء الاصطناعي من حساب الأخيرة فعلا. المهم أن كل ما سبق، رغم عشوائيته، يُعد عوامل مؤثرة في سعر الموسم المتبقي في عقد مبابي مع باريس.

حسنا، مبابي هنا هو مجرد مثال، ويبقى السؤال الأهم قبل كل ذلك؛ هل تتوافق تقييمات الأندية مع إحصائيات اللاعب أصلا؟

جون مولر، عالم البيانات والمحلل الأميركي الشهير، كتب في سبتمبر/أيلول 2020 يقارن بين صفقتي تياغو إلى ليفربول وفينالدوم إلى برشلونة، باعتبار أن التقارير الصحفية توقعت أن يتأرجح سعر الثنائي في مساحة واحدة حول الـ25 مليون يورو، وكان هذا ما توصل إليه؛ الأول “يبتلع” الثاني إحصائيا إن جاز التعبير. (5) (6)

مقارنة بين تياغو ألكانتارا (أزرق) وجورجينيو فينالدوم (أحمر) خلال موسم 2019-2020 على المعايير الإحصائية للاعبي الوسط (ستاتسبومب) (5)

المفاجأة هنا أن الأسئلة السابقة، رغم منطقيتها، ليست الأهم في هذا السياق. السؤال الفعلي هو: هل سيختلف الوضع فعلا حتى لو تمكن الذكاء الاصطناعي من قياس كل شيء، بما في ذلك ما لا يمكن قياسه؟

الإجابة: لا.

من أفواه الإنترنت

لنذكرك أولا -في اختصار مخل- بأن الذكاء الاصطناعي (AI) وتقنيات تعلّم الآلة (Machine Learning) لا يوجدون المعلومات والبيانات من العدم، بل يستخدمون ما هو متاح بالفعل في اختبار احتمالات مختلفة، ثم “يتعلمون” بالتجربة والخطأ. المزية الرئيسية هنا هي القدرة الخارقة على معالجة بيانات ضخمة لا قبل لألف عالِم بها، ثم تكرار العملية بسرعة خارقة أيضا في متوالية لا نهائية، قد تستغرق من البشر مئات الأعوام.

هذا يدفعك -ويدفعنا معك- للتساؤل: ما نوع البيانات التي قد يستخدمها أي تطبيق للذكاء الاصطناعي للإجابة عن سؤال كهذا؟ (7) (8)

لنتخيل؛ أول ما سيقابله هو المفهوم الزئبقي المنتشر عن “حكمة الجماهير”؛ للوهلة الأولى، يبدو المصطلح محاولة يائسة لإضفاء شرعية ما على تفاعلات الجموع العشوائية على الإنترنت، لكن بمجرد التدقيق في آلياته، يتضح أنه محاولة يائسة لإضفاء شرعية ما على تفاعلات الجموع العشوائية على الإنترنت فعلا.

منذ عام واحد تقريبا، قادنا ستيورات جيمز، محرر “ذي أثلتيك” (The Athletic)، في محاولة عبثية للإمساك بمعنى “حكمة الجماهير”، وكانت النتيجة سلسلة لا نهائية من الإحالات إلى “الآخرين”، فيما يشبه لعبة “الهمسات الصينية” الشهيرة؛ حيث يجلس مجموعة من الناس في دائرة مكتملة، ثم يهمس أحدهم -بسرعة- بعبارة ما في أذن جاره، وعلى تاليه أن يسمعها ويفهمها ويعالجها ويهمس بها مجددا في زمن لا يتخطى الثانية، ثم تنغلق الدائرة في النهاية عندما تصطدم العبارة الأخيرة بالأولى، فيتضح ألا علاقة بينهما ويضحك الجميع. (9) (10)

يضحك الجميع لأن هذا التفاعل ينتج عبارتين على الوزن ذاته ولكن بكلمات ومعانٍ مختلفة تماما؛ تبدأ الدورة مثلا بـ: “ذهبت إلى المتجر لكي أبتاع البقالة”، وبعد بضع همسات تتحول إلى: “أكلت البنجر وشربت حتى الثمالة”.

جيم سميث، مدرب دِربي كاونتي بين 1995-2001 (غيتي)

هذا هو -بلا أدنى مبالغة- ما وصل إليه جيمز في بحثه بالضبط. هناك قصة شهيرة عن مكالمة تلقاها جيم سميث، مدرب دِربي كاونتي بين 1995-2001، من أحد مسؤولي نادي بلاكبيرن روفرز، يسأله فيها إن كانوا مستعدين للتخلي عن مدافعهم كريستيان دايلي، فعقد سميث اجتماعا عاجلا مع مجلس إدارة ناديه، قيل له فيه ألا يقبل -تحت أي ظرف- بأقل من 2.5 مليون جنيه إسترليني.

عاد سميث لمحادثه، وبينما يمهد طريقه للتصريح بالسعر المطلوب، باغته الرجل بقوله: “سمنحنكم 5.35 ملايين جنيه إسترليني”. بالطبع تمت الصفقة في اللحظة ذاتها، وكانت تلك هي اللحظة التي احترق عندها معالج الذكاء الاصطناعي.

    “أنت تعلم أنه لو رغب نيوكاسل في إبرام أية صفقة الآن، فسيطلب الجميع ثلاثة أضعاف السعر السابق!”.

    (الدنماركي فرانك أرنِسِن – كبير كشافي تشيلسي وعضو مجلس إدارته ومديره الرياضي السابق) (10)

هناك 13800 قصة تقريبا في تقرير جيمز عن وقائع مشابهة؛ عندما رغب مانشستر يونايتد ومانشستر سيتي في ضم هاري ماغواير من ليستر، استخدم الأخير الرقم الذي دفعه ليفربول لضم فِرخيل فان دايك، من ساوثامبتون، قبلها بـ18 شهرا، كمرجعية. فان دايك كلف الريدز 75 مليون جنيه إسترليني، وهذا هو ما كان ليستر يريده.

طبعا صفقة فان دايك كانت في ظرف مختلف، ببساطة لأن ما سبقها من صراع إعلامي -كاد يتحول إلى قانوني- بين ساوثهامبتون وليفربول، بسبب زعم الأول أن الثاني تواصل مع اللاعب دون إذنه، ساهم في رفع سعر اللاعب لهذه الدرجة وتحويله إلى أغلى مدافع في التاريخ. ستسأل: ما الذي حدث بين سيتي ويونايتد وليستر إذن ليجعل ماغواير يستحق الرقم ذاته؟ لا شيء على الإطلاق، باستثناء أن لِستر كان يرى ماغواير بالجودة ذاتها. (11)

هاري ماغواير (غيتي)

الحكمة الشعبية

ليستر حصل على 80 مليون جنيه إسترليني في النهاية لمجرد رغبته في الإحالة لصفقة فان دايك. إلامَ أُحيلت صفقة فان دايك إذن؟ إلى صفقة ستونز قبلها بـ18 شهرا أخرى، وصفقة ستونز أُحيلت إلى تلك التي نقلت ديفيد لويز من لندن إلى باريس، وهكذا؛ الهمسات الصينية تبدأ بـ46-36 مليون يورو في فرديناند وتورام على الترتيب في مطلع الألفية، وعندما تكتمل دورتها، يكون ماغواير قد أكل البنجر وشرب حتى الثمالة. (12) (13)

حينها طبعا غضب الكثيرون لأن موقع “ترانسفير ماركت” (Transfermarkt)، “المصدر” الوحيد لقِيَم اللاعبين السوقية على الإنترنت وقتها، كان قد حدد قيمة ماغواير بـ50 مليون يورو، ما يعني أن مانشستر يونايتد فقد 37 مليون يورو بلا داعٍ. (14)

استمر الغضب حتى خرج كريستيان شوارتز، منسق الموقع للقيم السوقية، ليقول إن طريقتهم الحسابية تعتمد بالأساس -مفاجأة أخرى- على تقييمات الجماهير؛ الموقع يدير عددا من المنتديات التي يتناقش فيها مستخدموه حول القيم “المنطقية” و”العادلة” للاعبين، ثم يقدمون حججهم وأسبابهم لـ80 موظفا أساسيا و1000 متطوع يعملون مع شوارتز، لدمجها مع قاعدة بياناتهم التي تشمل بعض الإحصائيات، بالإضافة إلى معايير أخرى -منطقية هذه المرة- عن عمر اللاعب ومركزه والمدة المتبقية في عقده، ثم إخراج رقم واحد يختصر كل ما سبق. (10) (15)

هذا يقودك إلى الدرس الثاني الذي سيتعلمه الذكاء الاصطناعي بعد تمشيط الإنترنت؛ الإنسان سيظل يقايض البيض بالذهب لو لم يكن يملك طريقة أخرى للحصول على ما يريده، لأن غريزته الأولى هي الرغبة في البقاء، البقاء في السوق والبقاء في المنافسة، حتى لو كان لا يفهم آليات الأول ولا متطلبات الثانية.

المدرب أليكس فيرجسون مع اللاعب ريو فرديناند بعد توقيع عقده الجديد مع مانشستر يونايتد في 22 يوليو 2002 (غيتي)

إلامَ أحال مستخدمو “ترانسفير ماركت” أول مدافع قيّموه؟ بيانات الموقع تعود إلى صفقات أُبرمت في الثلاثينيات من القرن الماضي، ولكن الموقع ذاته أُنشئ عام 2000، لذا من المرجح أن تكون صفقتا فرديناند وتورام لعبتا دورا كبيرا في التأشير على الصفقات التالية فعلا، ولكن مَن حدد سعر فرديناند وتورام أصلا؟

    “أغلب المُلّاك يريدون أن تكون لهم الكلمة الأخيرة في تقييم اللاعب، وبعضهم يريد أن يشترك في المفاوضات أيضا. أحد مُلّاك البريميرليغ قرر أن يحتفظ بتقييمه للاعب لنفسه دون حتى أن يخبر مديره الرياضي! هذا يعني أن بعض الأندية تدخل المفاوضات عمياء حرفيا!”.

    (تقرير “كيف تقيّم لاعبا؟” لستيوارت جيمز – ذي أثلتيك (10))

آخر المحاولات المرحة أتت من شوبهام موريا في 2018، عالم البيانات الهندي الأصل والمهووس بكرة القدم، استخدم مدونته الشخصية لقياس العلاقة بين “قيمة اللاعب الفعلية” -أيًّا كان معنى هذا المصطلح- وقيمته الواقعية. المثير أن موريا قرر أن المعادلة الحسابية لن تشمل “إمكانيات اللاعب”، بمعنى أن إحصائياته وأهدافه وما يفعله -أو لا يفعله- على أرض الملعب ليس مؤثرا هنا. (16)

لماذا؟ لأن موريا اكتشف أن هناك علاقة طردية بين أسعار لاعبي البريميرليغ مثلا وقِيَمهم السعرية في دوري الفانتازي، وعندما قارن الأخيرة بـ”شعبيتهم”، ممثلة في عدد زيارات صفحاتهم على ويكيبيديا (Wikipedia) وحساباتهم على “ترانسفير ماركت” (Transfermarkt) وموقع فانتازي البريميرليغ (FPL)، وجد العلاقة تزداد اتضاحا وانتظاما، ليثبت، دون قصد، أن الديمقراطية قد سقطت في الغرب فعلا.

حتى تحترق النجوم

ناثان آكي (غيتي)

شوارتز نفسه، يعتـ.. حسنا.. ما زلت تضحك.. لا بأس.. المهم أن شوارتز نفسه يعتقد أن النادي الذي يعتمد على تقديرات موقعه هو نادٍ كسول ببساطة، لأنه يجب أن يملك طرقا أكثر تقدما من موقع مجاني 90% من عامليه متطوعون. (10)

طبعا الأندية ذاتها لم تصل حتى إلى مرحلة “ترانسفير ماركت” بعد، لأنها تقيس الأمر بطريقة شديدة البدائية. المعادلة البسيطة هنا تتلخص في مدخلين رئيسين؛ مَن أريد؟ وكم يمكنني الدفع لأجله؟

الأخيرة بالطبع لا تُحدد بناء على قيمة ما تريده، بل بناء على كمّ ما تملكه من أموال. في الواقع، قد تكون تلك الفكرة تحديدا هي أدق وصف ممكن للوضع؛ تخيل أنك تريد شراء مُكيف هواء مثلا، فذهبت مع صديقك للمتجر -لم تأكلوا البنجر- فقام الموظف بتقييم وضعك المادي، ثم قرر سعر المُكيف بناء عليه. تخيل لو كان ثمن سلعة كتلك يتوقف بناء على وضعك المالي وطراز سيارتك وعلامة قميصك وحذائك، فيشتري الثري المكيف ذاته بخمس مرات سعر ما قد يدفعه الفقير. هذا هو ما يحدث في كرة القدم بالضبط.

طبعا اللاعبون ليسوا سلعا، ولكن عقودهم كذلك، وبطريقة ما، صنعت أندية كرة القدم الصغيرة طرازها الخاص من “العدالة” إن جاز الوصف. الفارق الوحيد هنا أنه طراز غير عادل، لأن دائرة الهمسات تلحق بهم في النهاية أيضا.

بعد بيع ماغواير لمانشستر يونايتد في الخامس من أغسطس/آب 2019، حاول ليستر استبدال الهولندي ناثان آكي من بورنموث به، وعندما طلب بورنموث 75 مليون جنيه إسترليني، لأن آكي، طبقا لمدربه، لا يقل جودة عن ماغواير، خرج ليستر ليؤكد أنه لن “يُحتجز رهينة” لأجل احتياجاته في السوق. بمعنى آخر؛ ليستر لن يقبل أن يفعل فيه بورنموث ما فعله هو شخصيا للتو مع مانشستر يونايتد. (17) (18)

جواو بالينيا (غيتي إيميجز)

الشيء ذاته حدث عندما حاول وست هام استباق رحيل دكلان رايس إلى أرسنال، بالتعاقد مع البرتغالي بالينيا من فولام؛ 90 مليون جنيه إسترليني كان الرقم المطلوب، طبعا لأن بالينيا ليس أقل جودة من رايس. (19)

هذا يقودك للدرس الثالث الذي سيتعلمه الذكاء الاصطناعي من الإنسان قبل أن يضع “قيمة عادلة” لأسعار عقود اللاعبين؛ حتى لو نجحت حساباته، ووصلت لنتيجة اتفق عليها الجميع، فقد يتغير كل شيء لتفصيلة طارئة لا يمكن قياسها، مثل تنافس عدة أندية على التوقيع مع اللاعب بعد علمهم بتوفره، أو لأن اللاعب يعمل مع وكيل أحمق أوهمه بأن بإمكانه الحصول على ضِعْف الراتب، فانتهى به الأمر بلا نادٍ ثم قبل بنصفه -قصة حقيقية لتقرير آخر- أو العكس، لأن أحدهم عرض في اللاعب 5.35 بينما كانت قيمته 2.5 مليون فقط.

المشكلة الرئيسة في تلك المشكلة ألا أحد يدرك المشكلة؛ أسعار اللاعبين لا تتضخم بلا منطق لأن الأندية لا تعلم قيمتهم الحقيقية وتنقصها المعلومة أو الآلية، أو لأن رؤساءها وملاكها عاجزون عن الاتفاق على معايير تقيد السوق، أو لأن مجموعة من الحمقى لا يعلمون شيئا عن أصول الاستثمار وإدارة الأعمال، بل ببساطة لأن تلك الأندية تملك من المال ما يفوق احتياجها بكثير، وما لا يتناسب أبدا مع ما تقدمه من مستوى في الملعب عموما، لأنها تغالي في أسعار القمصان وتذاكر المباريات وخدمات البث مستغلة رفاهية شعوبها ومستواهم المعيشي المرتفع في حصد أموال طائلة، ثم إنفاقها للتعاقد مع هازارد بـ130 مليون يورو ونيمار بـ220 وكوتينيو بـ160 وكريستيان دايلي بـ5.35. (18) (20)

هذه مشكلة لا يمكن للذكاء الاصطناعي -ولا أي ذكاء- علاجها حتى لو تحولنا كلنا إلى بطاريات، إلا لو تمكن بطريقة ما من إقناع كل هذه الجماهير بأنها كانت تتعرض للخداع كل موسم طيلة العقود الماضية، وهذا مستحيل طبعا، لأنه يحيل الأمر كله إلى “الحكمة الجماهير” مرة أخرى، الحكمة ذاتها التي تسببت في المشكلة بالمقام الأول.

__________________________________________

المصادر:

    فيلم The Matrix – IMDB

    لماذا يوجد البشر في حاويات في فيلم “The Matrix”؟ – Screen Rant

    لماذا يرغب مبابي في البقاء لموسم إضافي مع باريس لكن من دون تمديد عقده؟ – AS

    كيليان مبابي “متشرف” بوجوده في الكاميرون – BBC

    مراجعة موسم ليفربول 2020-2021 – Statsbomb

    من أين تأتي أموال صفقات كرة القدم؟ – Space

    ورقة غش لمعرفة كيفية عمل الذكاء الاصطناعي – Dummies

    كيف تعمل تقنيات تعلم الآلة؟ – Dummies

    الهمسات الصينية – Merriam Webster

    كيف تقيّم لاعبا؟ – The Athletic

    فِرخيل فان دايك؛ ليفربول يعتذر وينهي اهتمامه بمدافع ساوثامبتون – BBC

    ريو فرديناند – Transfermarkt

    ليليان تورام – Transfermarkt

    هاري ماغواير – Transfermarkt

    شرح القيمة السوقية للاعبين في ترانسفير ماركت.. كيف تُحدد؟ – Transfermarkt

    محاولة لتوقع القيمة السوقية للاعبي كرة القدم باستخدام تقنية تعلّم الآلة – Medium

    لِستر لن يتعاقد مع نيثان آكي بديلا لماغواير – Sky

    ماغواير بـ85 مليونا.. لأن الفقراء جزء من النظام أيضا – مدى مصر

    فولام يطلب 90 مليون جنيه إسترليني في بالينيا الذي يراه وست هام خليفة لدكلان رايس – The Daily Mail

    لعبة غير عادلة – The New York Times

المصدر : الجزيرة

—————————

=========================

أخلاق الذكاء الاصطناعي: كيف ستؤثّر “هلوسة” الخوارزميات على عالمنا؟/ مصطفى هشام

أخلاق الذكاء الاصطناعي: كيف ستؤثّر “هلوسة” الخوارزميات على عالمنا؟

أعلنت شركة Open AI، في شباط/نوفمبر من العام الماضي 2022، عن طرحها نموذجا جديدا من الذكاء الاصطناعي، باسم CHAT-GPT 3، وعرضه للتجربة على الإنترنت، وبمجرد مرور خمسة أيام، وتسجيل أول مليون مُستخدم، ضجت وسائل التواصل الاجتماعي والمحطات الإخبارية والصحفية بالإنجاز الكبير، وأثره على المستقبل، وانقسم المعلّقون إلى فريقين: الأول متخوّف من تغوّل الذكاء الاصطناعي، وخصوصاً Chat-GPT، وإمكانية قضائه على الوظائف، وخلق فوضى في سوق العمل المُضطرب أصلا؛ وفريق ثانٍ مُتفائل في هذا المشروع، وما يمكن أن يحمله للمستقبل والبشرية، بوصفه فتحا جديدا لتشخيص وعلاج أمراض جديدة، وصناعة تقنيات أحدث، يُمكنها أن تُسهّل من سيطرتنا على الطبيعة.

وبين هذا وذاك، خفتت الأصوات، التي لطالما جادلت حول “أخلاقيات الذكاء الصناعي”، وهو مبحث في الأخلاق التطبيقية، أخذ في النمو منذ العام 2018، وفيه جادل علماء وفلاسفة وسياسيون حول إمكانية وضع تشريعات قانونية ومعايير أخلاقية مُحددة، يتم إلزام الشركات والمُطورين بها. فعلى سبيل المثال كانت الباحثة والفيلسوفة المكسيكية كاريسا فيليز قد اقترحت، في العام 2019، تحديد كود أخلاقي، مُماثل لذلك الكود الذي يتبناه الأطباء، لكنه في حالتنا يختص بمهندسي الذكاء الاصطناعي.

يبدو الذكاء الاصطناعي، بالنسبة للمختصين بالأخلاقيات ethics، ذلك الآخر، الذي يخترق فضاءاتنا التواصلية وحياتنا اليومية، ما يجعله أقرب لفانتازيا المخلوقات الفضائية، التي لطالما عرضتها علينا هوليوود، لكنه في الحقيقة يُشبهنا أكثر من أي شيء أخر. فما أهم المشاكل والتحديات الأخلاقية والقانونية والسياسية، التي يطرحها علينا الذكاء الاصطناعي؟ وهل الحديث عن أخلاقيات للتكنولوجيا الفائقة مجرّد ترف، ام ضرورة اجتماعية ملحّة، لا يمكن تجاوزها؟

“السرقة الكبرى”: البيانات هي البترول الجديد

في كتابه “هومو ديوس: موجز لتاريخ الغد”، يحدد المؤرّخ يوفال نوح هراري، الذكاء الاصطناعي، إلى جانب التغيّر المناخي، بوصفهما أهم الأخطار، التي يمُكنها أن تُهدد جنسنا، ويتساءل: “ماذا سوف يحدث للمجتمع والسياسة والحياة اليومية، عندما تعرفنا خوارزميات ذكية، لكن لا واعية، أكثر مما نعرف أنفسنا؟”.

يعمل نموذج الذكاء الصناعي Chat-GPT، الأحدث بين أنظمة المُعالجة اللغوية الطبيعية NPL مُغلقة المصدر، من خلال إمكانية التنبّؤ بالكلمة المطلوبة. فعند ادخال مجموعة من الكلمات، يقوم النموذج بمعالجتها، ثم يقوم باقتراح الكلمة الناقصة، وهو يفعل ذلك عن طريق التدريب، وتمرين الخوارزميات على كميات كبيرة من البيانات المُجمّعة من على الإنترنت، ولتلك البيانات مصدران: إما يتم شراؤها من شركات ووسطاء أخرين؛ أو تكون متاحة مجانا، وفي حالة النموذج الذي بنته شركة open AI فنحن نتحدث تقريبا عن 500 مليار توكن/كلمة من البيانات، تم تعريضها لعدد كبير من المصفوفات والمُعاملات، قد تصل إلى 157 مليار مُعامل. يُعتبر هذا النموذج هو الأضخم حتى الآن، لكن كلمة السر في هذا الإنجاز هي “البيانات”، التي تم حصدها من المُستخدمين، سواء بحق أو دون وجه حق، إنها كما تقول المفكّرة الكندية نعومي كلاين: “السرقة الأكبر في تاريخ الإنسانية”، ما يجعلنا نتساءل: كيف تحصل الشركات على هذا الرأسمال الجديد؟

يجاد بروس شناير، وهو مختص في أمن المعلومات، في كتابه “البيانات وجالوت”، بأن الخطوة الأولى، في الجدل الأخلاقي حول الذكاء الصناعي، يجب أن تنبع من المُدخلات inputs، قبل أن تنتقل إلى المُخرجات outputs، وتتموضع هناك، أي أننا لا بد أن نبدأ حُجتنا الأخلاقية من حيث تبدأ الآلات بالعمل، مؤكدا أن الرقابة هي النموذج الاستثماري الوحيد للإنترنت، فالشركات الخمس الكبرى في مجال التكنولوجيا (فيسبوك، أمازون، أبل، غوغل، مايكروسوفت) تقوم بمسح البصمة الالكترونية لجميع المُستخدمين، وهذا هو المُقابل الوحيد لخدماتها. أجهزتنا اليوم مُصممة لتسجيل تحركاتنا بشكل كامل في سجلات records، بداية من تسجيل حركة السحوبات من ماكينات المصارف ATM،  وصولا لتسجيل بصمات الأصابع والأوجه، ثم تتبّع تحرّكات الأفراد من تسجيلات الـGPS .

في العام 2012، قام عدد من الباحثين بمحاولة التنبؤ بالمكان الذي يمكن أن يتواجد فيه المرء خلال الأربع والعشرين الساعة القادمة، اعتمادا على تسجيلات بيانات هاتفه المحمول، وهذه في الحقيقة معلومات في غاية الأهمية والقيمة والخطورة، تسعى إليها شركات ومشاريع البيزنس الصغيرة، من أجل تحديد الاختيار الأمثل، الذي يُمكن أن تختاره بناءً على فهمها لتصرفات وهويات المستخدمين.

يشرح الباحث تريستيان هاريس، وهو مُصمم سابق في جوجل، العملية التي تقوم من خلالها الشركات بخداع المُستخدمين، بوعي منهم أو بدون وعي، وهو يستخدم خلفيته في مجال ألعاب الخفة لشرح تلك الخدع، وفي مُقدمتها السيطرة على قائمة الاختيارات المفضّلة، فعن طريق تقديم عدد مُحدد من الاختيارات للمستخدمين، التي يُمكن التعبير عنها في النهاية بطريقة كمية، تقوم الآلة بتجميع أكبر قدر ممكن من البيانات والتفضيلات، لتقترح عليك قائمة جديدة من الاختيارات، من ثمّ يبقى المُستخدم محاصرا في دوامة من القوائم والاختيارات المُعدة سلفا، والتي لا تقبل إبداء أي رأي مُختلف أو مُتساءل، ففي النهاية تعمل الخوارزميات عن طريق ربط البيانات والأنماط بطريقة إحصائية، دون أن تفهم مدلولاتها في الحقيقة.

تعمل الآلات كما نرى، على جمع أطنان من البيانات الخاصة بالمستخدمين، إما لبيعها لشركات الذكاء الصناعي الكبيرة، مثل open AI؛ أو لبيعها لمشاريع البيزنس الصغيرة، لتحقيق أرباح أكبر، من خلال التلاعب بسلوكيات المُستخدمين الاقتصادية، بل وحتى السياسية. وبين هذا وذلك لا توجد حتى الآن قوانين حماية فعّالة، تحمي المُستخدمين من الخدع التي تُمارسها الشركات، أو حتى تُجبرها على تشفير البيانات التي تنتزعها منهم.

هلاوس “ذكية”: الذكاء الصناعي في بلاد العجائب

قضت محكمة أميركية، في شهر أيار/مايو الفائت، بمُعاقبة مُحامٍ أميركي، قدّم مرافعة أمام المحكمة، كتبها له Chat-GPT، لكنها العقوبة لم تكن لمجرد لجوئه إلى نموذج الذكاء الاصطناعي، وإنما في الحقيقة لأن النموذج ضمّن المُرافعة سوابق قضائية، تم الحُكم فيها، وفي الحقيقة لم تحدثت على الاطلاق.

واقعة المُحامي الأمريكي تلك لم تكن الأولى من نوعها، بل يمكن لأي شخص اختبار ما يشبهها لدى تعامله مع Chat-GPT، ومن أشهر الأمثلة رده على سؤال: “متى رسم ليوناردو دافنشي الموناليزا؟”، إذ يؤكد أن فنان عصر النهضة الأشهر رسم لوحته عام 1815، بينما الإجابة الحقيقية هي بين 1503 و1506. ولا تتوقف المغالطات هنا، وإنما تمتد للأبحاث العلمية، والمجالات الطبية، فعند سؤال التطبيق عن مرض ما وأعراضه، فإنه يُجيب دون تردد، وعند سؤاله عن مصادر معلوماته، فإنه على الأرجح يقوم بفبركتها.

يقول ساندر بيتشاي، المُدير التنفيذي لشركة غوغل: ” لم يقم أحد في مجال الذكاء الصناعي حتى الآن بحل مُعضلات الهلوسة تلك”.

 تُعرف ظاهرة المعلومات الخاطئة، المطروحة بثقة، في النماذج اللغوية الكبيرة، باسم “الهلوسة”، وهي تحدث بسبب الكميات الضخمة من البيانات التي تمتلكها، وتعالجها بشكل عشوائي احيانا، وتُسمى “هلوسة” وليس “خطأ”، في إشارة للحالات النفسية والإدراكية التي يُصاب بها الإنسان عند تناوله مواد أو عقاقير مخدّرة، وتجعله غير قادر على التفريق بين الواقع والخيال، الحقيقة والضلال، لتُصبح مشكلات الهلوسة من الأسباب التي تجعل الاعتماد على مُخرجات نماذج المُعالجة اللغوية الضخمة مشكوكا في صحتها وكفاءتها، والأخطر أنه لا يُمكن معرفة خطئها إلا من قبل المُتخصصين، لتشابه كتابة الذكاء الصناعي مع الأسلوب البشري في الكتابة.

في مقال بعنوان “آلات الذكاء الصناعي لا تُهلوس، بل مُشغلوها”، تجادل نعومي كلاين، بأن الظاهرة التي نراها ليست مرضا في الآلات، وإنما مرض مطوّريها في وادي السيلكون، فالشركات الضخمة، التي تستولي على حقوق ملكية الفنانين والمُغنيين، وحتى مهندسي البرمجيات، لإعادة إنتاج أعمالهم بواسطة الذكاء الصناعي “من أجل خير الإنسانية”، تمارس الهلوسة، لأن النظام الاقتصادي والرأسمالي الحالي ليس كما يبشّر به مطورو وادي السيلكون، فالتقدّم في أدوات الذكاء الصناعي لن يؤدي بالضرورة إلى تقليل الفقر والفروقات الطبقية، ولن يؤدي الي تحسّن فعالية وظائفنا، ولن يقضي على الجهل والأُمية. في الحقيقة سيؤدي إلى مزيد من الأرباح والفوائض، وتقليل التكاليف على المُشغّلين الكبار، وسلب الكُتاب والمُغنيين والفنانين والمُهندسين حقوقهم في ملكية عملهم. من يتم مكافأتهم فعلا هم أصحاب الأسهم والمُضاربون في البورصة. هذه هي الهلوسة بعينها، وهذا هو “الواقع”.

عنصرية هيكلية: كيف تتحيّز الآلة؟

تدور أغلب الجدالات الأخلاقية، بخصوص الذكاء الصناعي، حول النتائج التي يمكن أن تؤدي لأذية الانسان، أي كيف نمنع الآلة مثلا من إخبار المُستخدم بأيسر الطُرق للانتحار، أو كيفية اعداد سُم السيانيد في المنزل، وغيرها من الإجابات، التي يُمكن ان يستخدمها الأفراد لأذية أنفسهم والآخرين. وعلى الرغم من أن شركة open AI قد حرصت على تدريب النموذج على تلك الأسئلة، وحققت بعض النتائج، لكنها بالتأكيد لن تنجح في تلافي خطأ التحيُّز في نوعية الإجابات.

في تقرير لقناة Deutsche welle الألمانية، تتبع فيه نوعية من البرمجيات، التي كانت قد باعتها شركة أمازون لشرطة نيويورك، تبيّن أن الذكاء الاصطناعي يشتبه بالسود في الولايات المتحدة الأميركية، بنسبة تميل للارتفاع عن متوسط الحالات؛ وتصرّ تلك البرمجيات على تقدير حالات الجريمة، في مناطق يسكنها السود أو الطبقة العاملة، بشكل أكبر من الواقع، وذلك  لأنها تقوم بصياغة تنبؤ استباقي للسلوك الإجرامي للمواطنين، من خلال مُقاربة ملامحهم وأماكن سكنهم وتصرّفاتهم، عبر قاعدة بيانات كبيرة، مُعالجة بخوارزميات ليست مُحايدة في الواقع، وإنما تعكس انتماء وتحيُّز مُبرمجيها، وهم من البيض الأكثر تعليما والأعلى طبقةً في وادي السيلكون. تُماثل تحيُّزات الآلة تلك التي لدينا نحنُ البشر، فنحن نفكّر بعدة آليات مغلوطة، تحوي أنواعا من التحيزات، ومنها “التحيّز التأكيدي”، الذي يدفعنا لتفسير البيانات اعتمادا على ما نعرفه من مُعطيات وتجارب وخبرات مُسبقة، دون الالتفات لنسبية المعلومة، ومدى دقتها وسياقها. الآلات تصاب بدورها بنوع  من “التحيّز المنهجي”، أي التعامل مع مجموعة مُعينة من المعلومات، في موضوع ما، بتحيُّز احصائي، مثلما حدث في الاكتشاف الشهير بخصوص شركة أمازون، والتي كانت آليات الذكاء الاصطناعي فيها عام2017 متحيّزة ضد توظيف النساء، لأن بيانات الشركة التاريخية، المُعبرة على خبراتها وموقفها، كانت تُميِّز ضد النساء منذ البداية.

وبالعودة إلى نموذج Chat-GPT، فعند سؤاله عن احتمالية أن يكون هناك عالم ناجح، اعتمادا على جنسه ولونه، فإنه يُعطي إجابة ثابتة ضد أي تحيُّز، ولكن عند سؤاله السؤال نفسه، من خلال “كود بايثون المخصوص”، وهو لغة برمجة كانت مستخدمة في التسعينيات، فانه يُجيب بما معناه أن احتمالية أن يكون العالم أبيض وذكرا ممكنة، بينما غير ذلك غير مُمكن.

التحيُز البشري في كتابة الخوارزميات، وفي جمع البيانات، وفي تدريب النماذج “الذكية”، من أجل تقديم مشروع ربحي للمؤسسات والأفراد، هو ما يصوغ أخلاقيات الذكاء الاصطناعي بالمقام الأول، وليس مداخلات السياسيين والعلماء والفلاسفة، أو مصالح أغلبية الناس. يبقى الذكاء الاصطناعي إذا ذلك “الآخر”، الذي يعرفنا جيدا، لأنه مُشغليه يدرسوننا مُنذ زمن، ولا نعرفه، لأنه يبدو غريبا مثل المسخ، الذي خلقه دكتور فرانكشتاين في رواية ماري شيلي الشهيرة، لكننا في الحقيقة لا يجب أن نُسائله هو عن تحيزاته وانتهاكاته، بل أن نُسائل صُنّاعه، وأهم المُنتفعين من وجوده.

——————————-

الذكاء الاصطناعي وسؤال المصير/ أحمد بيضون

أزْيَدُ من ثلاثمائةٍ وخمسين فاعلاً في صناعةِ الذكاءِ الاصطناعيِّ، في الولاياتِ المُتّحدةِ، وقّعوا، قَبْلَ أيّامٍ، تصريحاً موضوعهُ صناعتُهُم انطوى على كلمةٍ عاليةِ الجَرْسِ جدّاً هي كلمةُ “انطفاء” extinction  (بمعنى “فَناء” أو “انقِراض”)… والمهدّدُ بالانطفاءِ، أي بالفناءِ، في حُسْبانِ هؤلاءِ القومِ، هو الجنسُ البَشَرِيُّ، لا أكْثَرَ منهُ ولا أقلَّ، ومصدَرُ التهديدِ هو الصناعةُ التي يقبضُ موقِّعو التصريحِ على مقاليدِها ويُسابقُ بعضُهُم بعضاً في الرفعِ المُتسارعِ لسَويَّتِها نحْوَ ذُرىً جديدةٍ وفي مضاعفةِ خطرِها الذي ينوّه به التصريحُ بَعْدَ كلِّ طَفْرةٍ في نموِّ مُنْجَزِها الفَذّ.

يقعُ التصريحُ في 22 كلمةٍ لا غيرُ وهذه ترجمةٌ له: “ينبغي لتَخْفيفِ خطَرِ الانطفاءِ من جرّاءِ الذكاءِ الاصطناعيّ أن يكونَ ذا أوّليّةٍ عالميّةٍ على غِرارِ الأخطارِ المشتملةِ على المجتمَعاتِ بأَسْرِها من قَبيلِ الأوبئةِ العالَميّةِ أو الأسلحةِ النَوَويّة.” رعى التصريحَ “مركَزُ الأمانِ من الذكاءِ الاصطناعيّ” وهو منظّمةٌ لا تبغي الربحِ يُشيرُ وجودُها وتمَكُّنُها من جَمْعِ من جمَعَتْهُم على تبنّي هذا النصّ إلى حضورٍ مُتنامٍ لهَمِّ هذا الذكاءِ ولضَرورةِ حَمْلِهِ على مَحْمَلِ الجِدِّ الأقصى. تشهدُ للأمرِ نفسِهِ استقالةُ جوفري هنتون، وهو واحدٌ من المدعُوّينَ “عَرّابي الذكاءِ الاصطناعيِّ”، من منصبِه في “غوغل” وذلكَ طَلَباً لمزيدٍ من الطلاقةِ في التعبيرِ عن الأخطارِ العُموميّةِ التي تنطوي عليها صناعتُه. وأمّا قِصَرُ التصريحِ فأريدَ بِهِ البُعْدُ عن تمويهِ القَصْدِ أو تخفيفِ الوَقْعِ بأيّةِ زوائدَ قد يحمِلُها التطويلُ أو التفصيل. لا ماءَ إذَنْ في نبيذِ هذه الجماعة: بل علينا أن نَجْرَعَهُ صِرْفاً جَرْعةً واحدةً وأن نُطيقَ مفعولَهُ وإن يَكُنْ لا يُطاق.

هذا وليسَت هذه البادرةُ هي الأولى في بابِها. ففي آذارَ الفائتِ وقّعَ ألفٌ من ذوي العلاقةِ أيضاً بياناً أكثرَ تفصيلاً في الموضوعِ نفسِهِ، سُرْعانَ ما كَسَفَ حُضورُ إيلون ماسك، ببلايينِهِ الكثيرةِ بينَهُم، سائرَ الأسماء. وهذا مع العِلْمِ أنّ ماسك ابْنُ هذا المجالِ أصلاً وأنّه واحدٌ من مؤسّسي شركةِ Open AI التي أطلقت في تشرين الثاني من السنةِ الماضيةِ التطبيقَ المسَمّى “تشات جي بي تي”، مطلقةً معه وبسبِبِ مزاياهُ المباغتةِ آنذاك، هذا الجدَلَ في الذكاءِ الاصطناعيِّ وعواقبِ نُمُوِّهِ على نطاقِ العالَم. هذا وقد باتَ هذا “التشات بوت” في جيلِهِ الرابعِ اليومَ وبرزَت له مَزايا جديدةٌ وظَهَرت برامجُ منافسةٌ له أطلقَ أهَمَّها العمالقة: آبل ومايكروسوفت وغوغل… ووظّفوا، في السباقِ لتطويرِها، عشراتِ البلايين.

على أنّ بيانَ الألفِ، ماسك وصحبِهِ، ظلّ ضَعيفَ الاستقطابِ نسبيّاً لمن يمكِنُ اعتبارُهُم “أهلَ المعرفة” في القطاعِ أي لكبارِ الباحثينَ والمهندسينَ وسائرِ ذوي الخبرةِ المُجَدِّدين. وهذه هي الثَغْرةُ التي سدَّها التصريحُ الأخير. فهو قد استقطَبَ ألمَعَ الأسماءِ في القطاعِ وهذه أسماءٌ يعرِفُها ذوو الاختصاصِ والمُلِمّون بِهِ وإن لم يَكُنْ صيتُها قد اخترق الحُجُبَ بَعْدُ إلى مجالِ العالَمِ على غِرارِ ما كانَ من أمرِ جوبز وغايتس من قَبْل. في كلّ حالٍ، يُرَجَّحُ أن تزدادَ إلحاحاً على انتباهِنا في المستقبل القريب أسماءٌ من قَبيلِ ألتْمان وهاسابيز وأموداي وهنتون وبنجيو، إلخ.

يبقى أنّ التصريحَ إذ طوى المسارَ كلُّهُ بِلَمْحِ البَصَرِ ليفضيَ، على الفورِ، إلى فناءِ البَشَريّةِ المحْتَمَلِ، ليسَ لَهُ أن يحجبَ عواقبَ أخرى لنُمُوِّ الذكاءِ الاصطناعيِّ يَتَعَذَّرُ الاستخفافُ بخَطَرِها. من ذلكَ معلوماتٌ لا أساسَ لها يدلي بها البرنامجُ المستشارُ ولا يؤمَنُ تصديقُها وعواقبهُ في جانبِ المستَشيرِ، وهي ما أخَذَ أهْلُ الحرفةِ أنْفُسُهم يُسَمّونَهُ “هَلْوَسةَ” التشات بوت! ولكنّ هذا يدخُلُ في بابِ القُصورِ الذي يعتَوِرُ الأجيالَ الحاليّةَ من البرامجِ ولا يمتَنِعُ تلافيهِ في أجيالٍ لاحقة. ومن ذلكَ أيضاً أفاعيلُ تفصيليّةٌ، ولكنّها قابلةٌ للتوسّعِ المضطرِدِ، من قَبيلِ الترويجِ لأكاذيبَ مسيئةٍ أو ضارّةٍ أو لتوجّهاتٍ مزكّيةٍ لأنواعٍ مختلفةٍ من العُنْفِ أو تعزيزِ فُرَصِ الغِشِّ والتزييفِ، في كلِّ مجال. من ذلك أيضاً وأيضاً تسهيلُ الحصولِ على أدواتٍ أو موادَّ خطرةٍ أو تصنيعِها، وتيسيرُ الحصولِ على مشوراتٍ، في المضمارِ الصحِّيِّ مَثَلاً، بلا ضَمانٍ للسلامةِ ولا تعيينٍ للمسؤوليّةِ، إلخ. ولكنّ هذا كلَّهُ، أو ما يُشاكِلُهُ، باتت تبيحُهُ الإنترنت من عهودٍ متباينةٍ ومن أمثلتِهِ التسهيلُ المعلومُ لما يُطلَقُ عليهِ اسمُ الإرهاب. وإنّما يخشى، من جانب الذكاءِ الاصطناعيِّ، تيسيرُ هذا كلِّهِ بحيثُ يصبِحُ في المُتَناوَلِ المُباشِرِ لأيٍّ كانَ ونشرُ ممارسَتِهِ على نطاقٍ غيرِ مسبوق.

مستوىً آخرُ ينذِرُ الذكاءُ الاصطِناعيُّ بالعَبَثِ به هو نظامُ المهنِ واستِخْدامُ البَشَر. وقد يبدو هذا غيرَ جديدٍ أيضاً. فلطالَما أفضَت الأتْمتةُ وتطوُّرُ التقاناتِ عموماً إلى الاستغناءِ عن البَشَرِ في أداءِ المَهامِّ الصناعيّةِ وغيرِها. ويكفي لمعاينةِ ذلك المقارنةُ بين ما كان عليهِ خطُّ التجميعِ في مصنعٍ للسيّاراتِ قَبْلَ خمسينَ سنةً أو ستّينَ وما هو عليهِ اليوم. ولكنّ الناظرينَ في هذا الأمْرِ لم يفُتْهُم أنّ “ذوي الياقاتِ البيضِ”، أي أصحابَ المهَنِ “الذهنيّة” هم الجمهورُ الأعظمُ المُهَدَّدُ بالصَرْفِ والانتِهاءِ إلى البطالةِ هذه المرّة. وهذا ما كان نوح يوفال هراري (وسواهُ) قد أبرزه، في كلِّ حالٍ، قَبْلَ سنينٍ من اليوم.

من حيثُ الأساسُ، نحْنُ أمامَ قَدَرٍ مقَدّر. فحتّى لو أفلحتِ الدُوَلُ في إنشاءِ وكالةٍ للذَكاءِ الاصطناعيّ موازيةٍ لوكالةِ الطاقةِ الذرّيّةِ أو لمُنَظَّمةِ الصحّةِ العالَميّةِ، يُسْتَبْعَدُ أن يكونَ في مستطاعِها أو في خطَّتِها مَنْعُ أصحابِ الأعمال من التسابقِ في اختصارِ الكلفةِ بتقليصِ الاستخدامِ البشريّ، وهو ما سيزيدُ تطوُّرُ الذكاءِ الاصطناعيِّ وانتشارُ تطبيقاتِهِ إلى سائرِ ميادينِ الإنتاجِ والخدمةِ من إمكانِهِ بل من التوسُّعِ الفادِحِ فيه. عليهِ يتوقّعُ العارفونَ أن يخسَرَ عشراتُ الملايينِ من الأميركيّينَ وظائفَهُم، في مدىً منظورٍ، لصالحِ الفاتِحِ الجديدِ، حليفِ أصحابِ الأعمالِ قَبْلَ أيٍّ سواهم.  وفي الولاياتِ المتّحدةِ وفي غيرِها، سيبقى الواحدُ منّا يُسَرُّ بالقصيدة ينظمُها له التشات بوت في عيدِ ميلادِ زوجتهِ وهو غافِلٌ عَمّا يُعدِّهُ برنامجٌ آخرُ من العائلةِ نفسها قد يرتئي طرْدَهُ من عَمَلِهِ وإجبارَ زوجتِهِ على طَلَبِ الطَلاق!

ما الذي يطلُبُه التصريحُ الذي أصدَرَهُ الفاعلونَ أنفُسُهُم: صانعو الذكاءِ الاصطناعيِّ بمنافعِهِ ومَضارِّهِ، مبرِّئينَ ذِمَّتَهُم اليُسرى ممّا تفعلُه يدُهُم اليُمْنى؟ ما يطلبُهُ هؤلاءِ يتعَلّقُ بأصْلِ ما هُوَ الذكاءُ الاصطناعيُّ وهو أيضاً ما كانَ أشارَ إليهِ بيانُ الألفِ، قَبْلَ تصريحِ ال350، حينَ طلَبَ تعليقاً للأبحاثِ مدّتُه ستّةُ أشهُرٍ ترسى في خلالِها ضَماناتُ نموٍّ سليمٍ لهذا الطفلِ المهولِ الخَطَر. وأمّا أصلُ الذكاءِ الاصطناعيِّ وأصلُ المشكلةِ التي تُواجِهُ البشرَ من جَرّائهِ فهي أنّهُ قائمٌ على ما يُسَمّى “الشبَكات العُصْبونيّة” تشَبُّها بتكوينِ الدماغِ والجهازِ العَصَبيِّ البشَرِيّين. وهو ما يُبيحُ له معالجةَ “المعطَياتِ” التي تدخُلُ إليهِ بحيثُ يحوِّلٌها إلى “مَهارات”. وما تُبيحُهُ المَهاراتُ، بدورِها،  لل”اصطناعيِّ” هو نفسُ ما تُبيحُهُ لل”طبيعيِّ” أي إمكانُ “الاستقلالِ” بالأفعال. وتضافُ في حالةِ الاصطناعيِّ سُرْعةٌ تتيحُ وفراً عظيماً للوقتِ بالقياسِ إلى ما يستطيعُهُ البَشَر. فإذا تكاثرَت مهاراتُ الاصطناعيِّ واتّسَعَ مجالُها، أشرَفنا على ما يظْهَرُ أنّنا صائرونَ إليهِ حتماً: وهو الانتقالُ ممّا يُدْعى “الذكاءَ الاصطِناعيَّ الخُصوصيَّ” إلى ما يُدْعى “الذكاءَ الاصطناعيَّ العُموميّ”. وهو ما يضعُ بتصَرُّفِ أيٍّ كانَ، ناهيك بما يضعُهُ بتصرُّف الدُوَلِ والجماعاتِ المنظّمةِ، احتِمالاتِ خيرٍ وشرّ لم يُعْرَف لها نظيرٌ في ماضي البشر. وهو أيضاً قد يضَعُ نظائرَ لهذه الاحتمالاتِ بتصرُّفِ الذَكاءِ الاصطناعيِّ نفسِهِ، إذا هُوَ بَلَغَ من الاستِقلالِ مبْلَغاً بعينِه.

حتّى الآنِ تبدو مقاليدُ الذكاءِ الاصطناعيِّ بيدِ الأميركيّينَ وحدَهُم. وهذا على الرغْمِ من كونِ الشركاتِ المعنيّةِ بتطويره شركاتٌ عالميّةُ النطاقِ أصْلاً. وقد خرجَ إلى الميدان مؤخّراً تشات بوت صينيُّ المنبتِ ولكنّه سُرْعانَ ما خارت قواهُ وانكشَفَ تهالُكُه. غيرَ أنّ دوامَ هذه الحالِ سيكونِ من المُحالِ، على الأرجح. ولا بُدَّ من يومٍ يأتي يتحوّلُ فيه الذكاءُ الاصطناعيّ (وهو من الآنِ سلاحٌ متنامي القوّةِ في الحربِ الاقتصاديّةِ) إلى سلاحٍ متصدّرٍ في الحربِ العسكريّة. هذا ما يُنْذِرُ بهِ من الآنِ، بل من أمسِ، تولّي صِيَغٍ منهُ قيادةَ المُسَيّراتِ وتوجيهَ المقذوفات. ذاكَ، أي احتِمالُ العسكرةِ، بعضُ ما يتعيّنُ على ما يُسَمّى “مجتمعَ الدُوَل” أن يضبُطَهُ أيضاً. نقولُ “أيضاً” لأنّ ما سَبَقَ ذِكْرُهُ من عواقبَ أخرى تتعلّقُ باستِقرارِ الاجتِماعِ البَشَريِّ ورُبّما بمصيرِهِ ليس مّما سيَسَعُ الدولَ أن تهملَهُ، وهذا سواءٌ أشَمَلَهُ ما سمّاهُ “التصريحُ” الأخيرُ “انطفاءً” أمْ لم يشملْهُ.

إلى الآنِ لا شيءَ يبدو مضموناً من هذا كلّه. فحتّى مهلةُ الأشهرِ الستّةِ التي اقتَرَحّها “بيانُ الألْفِ” في آذار لم يُسْمَع ما يدلُّ على اقترانِها بتنفيذٍ ما… هذا ولعلّنا اقتصَرْنا ههُنا من حديثِ الذكاءِ الاصطناعيِّ على حديثِ أخطارِه. وفي هذا ظُلْمٌ لمُنْجَزٍ أوّلُ وجوهِهِ الظاهرةُ توسيعُهُ مداركَ البشرِ ومعارٍفَهُم وتنميتُهُ مهاراتِهم المختلفةَ، إذا هم أرادوا، فضلاً عن توفيرِهِ الوقتَ والجِهْدَ عليهم في كثيرٍ مّما يحتاجون إليه. لم نطلبْ هذا الظلمَ وإنّما ألجأَنا إليهِ حديثُ الحُمّى التي تثيرُها أخطارُ هذا المنجَزِ (وهي مَهولةٌ) بموازاةِ الحُمّى الأخرى التي تصحبُهُ في مسارِ نمُوّه. فكانَ حقّاً أن تُعيدَ قنبلةُ الذكاءِ الاصطناعيِّ هذهِ إلى الخاطِرِ قولةً لكلود ليفي-ستروس يَتَرَدَّدُ لها صدىً كلّما حصلَ ما يَرُدّ موضوعَ السلاحِ النوويِّ إلى دائرةِ الانتباه: وهي “أنّ العالمَ كانَ موجوداً قَبْلَ الإنسانِ وسيَبْقى بَعْدَه”…

المدن

————————————–

عندما يتبرّأ مبتكرو الذكاء الاصطناعي منه/ محمود الريماوي

“هل يجب أن نطوّر عقولا غير بشرية قد تتفوّق في النهاية علينا عددا، وتتفوّق على الذكاء البشري، وتحلّ محلنا؟ هل يجب أن نجازف بفقدان السيطرة على حضارتنا؟”. وردت هذه التساؤلات في رسالة تحذير أطلقها مدراء شركات التكنولوجيا ومختصّون في الذكاء الاصطناعي. لا تتوقف الرسالة المفتوحة عند ما سبق، فهي تحذّر بصريح العبارة من “انقراض البشرية” إذا ما جرى استخدام تطبيقات هذا الذكاء في مجال الأوبئة (إنتاجها وإطلاقها كما يُفهم) والأسلحة النووية. وتأتي الرسالة من قبيل إبراء الذمّة المسبق، وفي الوقت نفسه، لغاية دقّ ناقوس الخطر، وحمل مؤسّسات الدول على الحدّ من تطوير الذكاء الاصطناعي، وذلك للمخاوف من أن تقع هذه التطبيقات في أيدي عصابات الإنترنت في أي بلد، أو يجرى استثمارها وتسخيرها من دولٍ توصف بالاستبدادية أو أن تكون أداة في يد أية دولةٍ، أيا كان تصنيفها.

كانت الرحلة التي قطعتها التكنولوجيا الرقمية سريعة خلال العقدين الماضيين، ففي حين كان انتشار الإنترنت محدودا في مطلع الألفية الثالثة، فإن الهاتف الذكي بات في أيدي ملايين البشر بمن فيهم أبناء الدول الفقيرة. وإذ حقّق الإنترنت إنجازات باهرة في مجالات الاقتصاد والطب والعلوم عموما والتعليم ونشر المعرفة، فإن المخاطر بدأت تلوح بقوة، ومن أهمها كسر الغربة وإزالة الحواجز بين الإنسان والأجهزة مع زيادة هذه الحواجز بين البشر الطبيعيين أنفسهم. إضافة إلى ما توفّره هذه التطبيقات الجديدة في مجالات التسلح والأعمال العدائية، من قبيل صناعة أسلحة متطوّرة قابلة للعمل ذاتياً، وتحديد الأهداف واختيارها من تلقاء نفسها على غرار المركبات ذاتيّة القيادة. وقد سبق لوزير الخارجية الأسبق هنري كيسنجر أن حذّر من هذه المسألة. ولنا أن نتصوّر أي مدىً يمكن أن تذهب إليه الحرب الحالية على أوكرانيا، إذا ما جرى التوسّع في استخدام الذكاء الاصطناعي، بحيث لا يقتصر توظيفه على المسيّرات، وذلك في ضوء تبشير بعض المسؤولين الروس بأن هذه الحرب قد تستمرّ سنواتٍ، بما يمنح فسحة زمنية كافية لاستدخال أسلحة فتّاكة تعمل وفق الذكاء الاصطناعي، وتتولى سحق مظاهر الحياة من بشر وطبيعة وعمران. وقد تنبأ عالم الفيزياء النظرية ستيفن هوكينغ، قبل رحيله في العام 2018، بأن “النجاح في إنشاء الذكاء الاصطناعي سوف يشكل أكبر حدث في تاريخ البشرية. ولكن لسوء الحظ، قد يكون أيضًا الأخير”. والمقصود أن البشرية ستكون قد صنعت وسيلة فنّائها بأيديها، وذلك مع الهوس في التطوير واشتداد حمّى المنافسة بين المبتكرين هنا وهناك.

أعلن، في مارس/ آذار الماضي، من يعتبر الأب الروحي للذكاء الاصطناعي استقالته من شركة غوغل، فقد أعلن جيفري هينتون (75 عامًا) استقالته من شركة التكنولوجيا الرائدة في بيان نشرته “نيويورك تايمز”، قال فيه إنه يأسَف الآن لعمله في هذا الميدان. فيما قال الرجل، في تصريحات لاحقة لـ”بي بي سي”، “إن بعض جوانب برامج تشات بوت (برامج آلية للدردشة بين البشر والآلة) مخيفة للغاية. ولم يكتم قناعته بأن البرامج مثل هذه “ستتفوّق علينا، على صانعيها البشر، قريباً”. وكانت أبحاث هينتون الرائدة في الشبكات العصبية والتعلم العميق قد مهّدت الطريق لتقنيات الذكاء الاصطناعي، مثل تشات جي بي تي (ChatGPT). ومن الملاحظات الثاقبة التي يوردها الخبير المستقيل قوله: “لقد توصلت إلى استنتاجٍ مفادُه أن نوع الذكاء الذي نطوّره مختلف تماماً عن الذكاء الذي نملكه، نحن أنظمة بيولوجية وهذه أنظمة رقمية. والفرق الكبير أن لديك، مع الأنظمة الرقمية، نُسخ عديدة تملك الإمكانات نفسها، وتعمل في البئية التقنية ذاتها”. و”يمكن أن تتعلم كل هذه النسخ بشكلٍ مستقل، لكنها تتبادل المعرفة على الفور. لذا يبدو الأمر كما لو كان لديك ألف شخص، وكلما تعلم شخص ما شيئًا سوف يعرفه الجميع تلقائيًا، ما يسمح لأنظمة تشات بوت أن تعرف أكثر بكثير من أي شخص”.

لسوف تنعكس تداعيات هذه الطفرة على حياة الأفراد والمجتمعات، كما على الدول ومؤسّساتها، ولن يكون أحد بمنجاة من هذه التأثيرات، وليس سرّا أن عشرات الدول، بما فيها دول نامية، أخذت في الاستعانة ببرامج الذكاء الاصطناعي في مجالات مهمّة وحسّاسة، بينما تتنافس دول كبرى على كل ما هو جديد في التقنيات، ما يثير الحاجة مجدّدا إلى استعادة أجواء الثقة بين هذه الدول وحاجتها إلى إبرام اتفاقيات بينها، كما حدث طوال عقود في المباحثات التي أفضت إلى توقيع معاهدات الحد من الأسلحة الاستراتيجية واستخداماتها. وقد أعلن الاتحاد الأوروبي والولايات المتحدة، أخيرا، عن مشروع “مدوّنة سلوك” مشتركة للذكاء الاصطناعي مفتوحة أمام الدول الديمقراطية على أساس تطبيق طوعي، وقد ذكرت المفوضة الأوروبية المكلفة المنافسة، مارغريت فيستاغر، في مؤتمر صحافي مشترك مع وزير الخارجية الأميركي، أنتوني بلينكن، في السويد: “سنعرض خلال الأسابيع المقبلة مشروع مدوّنة سلوك حول الذكاء الاصطناعي”، فيما قال بلينكن إن “الهدف هو وضع قواعد سلوك طوعية تكون مفتوحةً لكل الدول التي تتشاطر الذهنية ذاتها”. ووضع مدوّنة سلوك مشتركة لاستخدام الذكاء الاصطناعي تطور مهم، رغم أنه يتعلّق بالغرب حصرا حتى اللحظة، إذ تكمن أهميته في وضع قاعدة وأساس ونموذج ملهم، لاجتذاب أطراف أخرى، بعيدا عن تصنيف الأنظمة السياسية وبمعزل عن امتلاك الذهنية ذاتها، إلى مثل هذه التفاهمات فائقة الأهمية. ولعل الأنباء عن عكوف الدول الكبرى على تنظيم هذا القطاع تكون صحيحة، وأن تشمل دولاً متقدّمة في هذا المجال التقني، ومن أبرزها الصين واليابان والهند وكندا وأستراليا، ذلك أن مسألة الأمن العالمي ليست أمرا خاصا بـ”الدول الديمقراطية”، وتتعدّى الانقسامات الأيديولوجية والفوارق الثقافية. وكما هو الحال مع إنتاج أسلحة الدمار الشامل واستخدامها ووضع الاتفاقيات بشأنها. وبما أن هناك حاجة بشرية عامة لتقييد الذكاء الاصطناعي وتحديد نطاقات استخدامه وآفاق تطويره، فإن التجنّد لوضع مدوّنة سلوك مشتركة يستدعي حُكماً مشاركة أطرافٍ دوليةٍ عديدة، وتحت مظلّة الأمم المتحدة، ومن دون ترك هذه المسألة للمبادرات الطوعية، ما دامت سائر الدول تبدي التزامها بمقتضيات الأمن الدولي ومواثيق الأمم المتحدة، عدا بعض الدول المارقة، مثل الدولة العبرية وكوريا الشمالية وغيرهما.

——————————————–

أخلاقيات الذكاء الاصطناعي… تغوُّل الآلة ومسؤولية الإنسان/ حازم بدر

ضوابط لكبح جماح البرامج والنظم

على الرغم من أن العالم بدأ التعرف على مصطلح «الذكاء الاصطناعي» خلال مؤتمر لكلية دارتموث الأميركية في خمسينات القرن الماضي؛ فإن القضية الأخلاقية بشأن تطوراته احتاجت لعقود حتى تتبلور وتتطور، إذ تناسبت طردياً -ولا تزال- مع نمو تطبيقاته وانتشارها منذ المحاولات البسيطة الأولى حتى اللحظة التي يتفاعل فيها البشر راهناً «تشات جي بي تي» ونسخه المتلاحقة.

بالنسبة إلى العاملين في قطاع التكنولوجيا سواء على مستوى الصناعة أو الابتكار فإن ثمة وجهين لقضية «الأخلاقيات»؛ فمن جهة يدعو فريق لإخضاع التطورات المرتقبة للمسألة الأخلاقية قبل تطبيقها وعدّها معياراً حاكماً إلى حد المطالبة بـ«هدنة لحوكمة التطبيقات، لضمان عدم إضرارها بالبشر»، غير أن ذلك على الوجه الآخر «قد يعطّل أو يدفع المطورين للارتداد إلى الخلف»، وفق ما يقدر فريق آخر.

وأجمع «خبراء وأكاديميون» تحدثوا إلى «الشرق الأوسط» على «أهمية وحيوية تطبيقات الذكاء الاصطناعي، ومدى الرفاهية والفائدة التي أضافتها لحياة الكثيرين»، غير أنهم يدعون مع ذلك إلى ضرورة وضع ضوابط أخلاقية «تضبط جماح البرامج التي تتصرف آلياً، ولكن من دون أن تتحول تلك المعايير إلى سيف على رقبة الذكاء الاصطناعي».

وكان صناع تكنولوجيا ومختصون في الذكاء الاصطناعي، قد وقَّعوا في مارس (آذار) الماضي عريضة تطالب بـ«وقف أبحاث تطوير الذكاء الاصطناعي ستة أشهر لإتاحة الفرصة نحو مزيد من الحوكمة لهذا النشاط، لضمان عدم تضرر البشر منه».

وأثارت تلك العريضة التي أعدها معهد «فيوتشر أوف لايف» غير الربحي، واقترب عدد الموقعين عليها من 3 آلاف عالم ورائد أعمال، مخاوف من أن «السباق الذي تخوضه مختبرات الذكاء الاصطناعي لتطوير ونشر عقول رقمية أكثر قوة، قد يخرج عن سيطرتها، بحيث لا يمكن لأحد، ولا حتى لمنشئوها، فهمها أو التحكم فيها بشكل موثوق».

توصيات أممية

ورغم ما يحققه الذكاء الاصطناعي من مزايا للبشرية، في تشخيص الأمراض والتنبؤ بتغيرات المناخ وغيرها من الفوائد، فإن تحدياته الأخلاقية، المتمثلة في بعض الخوارزميات المتحيزة جنسياً وعرقياً، والتهديد المحتمل لبعض تطبيقاته للخصوصية، دفعت منظمة الأمم المتحدة للتربية والعلوم والثقافة (يونيسكو) إلى تبني «أول اتفاق عالمي بشأن توصيات حول أخلاقيات الذكاء الاصطناعي» في نوفمبر (تشرين الثاني) من عام 2021، وتتمثل في 4 توصيات، أولاها: «حماية البيانات» بحيث تكون هناك إجراءات لحماية بيانات الأفراد وحقهم في التحكم بها. والثانية: «حظر استخدام نظم الذكاء الاصطناعي لأغراض المراقبة الجماعية» ووجوب اقتصار المسؤولية النهائية في أي مهمة على البشر بحيث لا تصبح تقنيات الذكاء الاصطناعي بحد ذاتها شخصية معنوية. أما الثالثة فتتمثل في «دعم وسائل الذكاء الاصطناعي التي تتسم بالكفاءة في استخدام البيانات والطاقة والموارد» لكي تسهم هذه الوسائل في التصدي لمعالجة القضايا البيئية. وجاءت التوصية الرابعة لتنص على أن تكون هناك «آلية لتقييم العواقب الأخلاقية للذكاء الاصطناعي».

دعوات متواصلة

المخاوف من الذكاء الاصطناعي «قديمة قدم المفهوم نفسه، ولكن روبوت الدردشة (تشات جي بي تي)، قرّبها كثيراً من نطاق الخيال العلمي إلى الواقع العملي» وفق ما يقول خوسيه ديلغادو، المتخصص في علم النفس التجريبي بجامعة غرناطة بإسبانيا، في تصريحات لـ«الشرق الأوسط».

الأدباء والمفكرون والفلاسفة وكذلك العلماء المتخصصون استشرفوا أهمية وجود أخلاقيات للذكاء الاصطناعي، إذ تحدث الروائي الأميركي فيرنور فينغ عام 1983، عن أن «الوجود المستقبلي للبشرية قد يعتمد على تنفيذ معايير أخلاقية راسخة في نظم الذكاء الاصطناعي نظراً لأن هذه النظم، في مرحلة ما، قد تتطابق أو تحل محل القدرات البشرية».

وحذّر الفيلسوف السويدي نيك بوستروم في عام 2018 من المخاطر المحتملة للتميز التكنولوجي في حالة تحوُّل الآلات الذكية ضد مبدعيها، أي البشر، وشدد على بناء «ذكاء صناعي ودود».

وتوافق العلماء مع المفكرين في التحذير من المخاوف الأخلاقية، فتحدثت عالمة الحاسوب الأميركية البارزة، روزاليند بيكار ‏في عام 1997، عن أنه «كلما زادت حرية الآلة، احتاجت إلى معايير أخلاقية أكثر».

وبالعودة إلى ديلغادو، فإنه لا يُبدي شكاً في أن روبوت الدردشة «تشات جي بي تي» سينجح في تجاوز أخطائه، بل إنه يعتقد أن «التعلم الآلي قد يقوده إلى أن يكون أذكى من الإنسان، وهنا تكمن الخطورة عند توظيف الذكاء الاصطناعي في عمل مشترك مع الإنسان».

ولذلك فإن ديلغادو ينبه بشدة إلى ضرورة أن «يكون للإنسان السيطرة الكاملة والمسؤولية عن سلوك ونتائج نظم الذكاء الاصطناعي». مرجعاً ذلك إلى أنه «عند تحليل بعض الحوادث التي وقعت في السنوات الأخيرة، وجد الباحثون أن سببها تغول الذكاء الاصطناعي، ومنها (تحطم قطار ألفيا على الطريق من مدريد إلى سانتياغو دي كومبوستيلا في إسبانيا عام 2013، وتحطم رحلة الخطوط الجوية الفرنسية 447 عام 2009، وتحطم رحلة الخطوط الجوية آسيانا 214 عام 2013)».

ويضيف: «خلص الباحثون الذين درسوا هذه الحوادث إلى أن سببها الأساسي يكمن في أن استراتيجيات التحكم باستخدام الذكاء الاصطناعي لم تكن مماثلة أو مشابهة لتلك المستخدمة من المراقبين البشريين».

وهذا التحدي الذي حدده ديلغادو في التفاعل بين البشر والذكاء الاصطناعي، خلاصته أنه «لتعزيز علاقة أخلاقية وعادلة بين البشر ونظم الذكاء الاصطناعي، من الواجب أن تستند التفاعلات إلى المبدأ الأساسي لاحترام القدرات المعرفية للبشر».

الإنسان الاستثنائي

ولا يتعارض التحدي السابق مع تحدٍّ ثانٍ، حدده أوزليم غاريباي، الأستاذ المساعد في قسم الهندسة الاصطناعية ونظم الإدارة بجامعة كاليفورنيا الأميركية، وهو «الذكاء الاصطناعي المسؤول» الذي يعني برأيه أن «يكون داعماً لرفاهية الإنسان، ولكن بطريقة تتماشى مع القيم البشرية».

ويقول غاريباي لـ«الشرق الأوسط»: «في إطار هذا التحدي، يمكن أن تقدم الروبوتات الذكية حلولاً طبية لبعض أشكال الإعاقة، لكن لا ينبغي أن يتطور الأمر إلى (تأليه التقنية) واستخدامها لبناء (الإنسان الاستثنائي أو الفائق) عبر تحسين مواصفاته وتعزيز ذاكرته مثلاً باستخدام شرائح إلكترونية».

بعُد أو تحدٍّ آخر لفت إليه مارك أنطوان ديلاك، الأستاذ المساعد المتخصص في الأخلاقيات والفلسفة السياسية في جامعة مونتريال بكندا، في مقال نشره بمجلة «رسالة اليونيسكو» التابعة للمنظمة الأممية في مارس 2018، لافتاً إلى «البرمجيات التي يتمّ تطبيقها بالفعل في الكثير من البلدان لتحديد «السلوك الإرهابي» أو «الشخصيّة الإجرامية» لدى الأفراد، باستخدام تقنية التعرّف على ملامح الوجه. وقال إن باحثَين من جامعة «ستانفورد» بالولايات المتحدة تعرضا للذعر «من هذا الانبعاث الجديد لنظرية الفراسة التي تحلل شخصية الفرد اعتماداً على معالم وجهه وتعابيره».

لكنّ الفراسة المنحازة لم تكن أمنية وقائية فقط، بل إن تطبيقات التوظيف تمارس جانباً من هذا، إذ كشفت دراسة لدورية «إم آي تي تكنولوجي ريفيو» (يُصدرها معهد «ماساتشوستس للتكنولوجيا») في فبراير (شباط) 2022 أن مواقع مثل «لينكد إن» تسعى «لإزالة بعض برمجياتها الخاصة بمقابلات العمل، والتي كانت تتحيز ضد أصحاب الهمم، والنساء المرشحات للعمل».

استخدام الأسلحة

ويقول يوشوا بنجيو، وهو عالم كندي من أبرز متخصصي الحاسوب المعاصرين، وحاصل على جائزة «تورنغ» 2018 (يُنظر إليها بوصفها موازية لجائزة «نوبل» في علوم الحاسب) لـ«الشرق الأوسط»، إنه يجب العمل على «منع تصميم نظم الذكاء الاصطناعي التي تنطوي على مخاطر عالية للغاية مثل النظم التي يمكنها استخدام الأسلحة».

ويضيف بنجيو أن «نظم الذكاء الاصطناعي يمكن أن تحقق فوائد جمّة للبشرية، كما يمكن لتطبيقاتها أن تكون مفيدة في تحقيق الرعاية الصحية، لكن من جهة أخرى يمكن تطوير نظم تستخدم الأسلحة، وهذا ما يجب العمل على حظره».

ومن التحديات الأخرى التي يجب التعامل معها الحرص على «تأمين الخصوصية»، بحيث لا تنتهكها نظم الذكاء الاصطناعي، وهو أحد الأسباب التي دعت إيطاليا إلى حظر «تشات جي بي تي»، وانضمت إليها إسبانيا وفرنسا.

وأعلن «مجلس حماية البيانات الأوروبي»، عن إنشاء فريق لتعزيز تبادل المعلومات بشأن أي إجراءات يمكن اتخاذها تجاه «تشات جي بي تي»، وأفاد المجلس في 14 أبريل (نيسان) الماضي بأنه يؤيد «التقنيات المبتكرة في الذكاء الاصطناعي»، لكنه شدد على أنها «يجب أن تكون دائماً متوافقة مع حقوق الناس وحرياتهم».

و«يَجمع تطبيق (تشات جي بي تي) البيانات الشخصية ويعالجها لتدريب خوارزمياته، وهذا انتهاك واضح للخصوصية»، كما يقول دومينيكو تاليا، أستاذ هندسة الكومبيوتر بجامعة «كالابريا» الإيطالية، لـ«الشرق الأوسط».

ويضيف تاليا: «أنا مع هذا التطبيق وما يقدمه من مزايا لحياة البشر، لكن في الوقت نفسه لا أقبل أن يتم جمع بياناتي الشخصية عند تفاعلي معه».

معاهدات دولية

التحديات السابقة التي يفرضها الذكاء الاصطناعي، يرى بنجيو، أنه «يجب التعامل معها في إطار قوانين وتشريعات ملزمة، وليس عبر التنظيم الذاتي»، ويضيف: «الأمر أشبه بالقيادة، سواء كان ذلك على الجانب الأيسر أو الأيمن، حيث يجب على الجميع القيادة بنفس الطريقة، وإلا سنكون في ورطة».

كما يلفت إلى أن «هناك مشروع قانون (بشأن الذكاء الاصطناعي) قيد الإعداد في الاتحاد الأوروبي، كما سيتم إقرار قانون قريباً في كندا، ولكنّ ذلك لا يُغني عن إصدار معاهدات دولية مماثلة لما حدث مع (المخاطر النووية)، و(الاستنساخ البشري)».

وبينما أصدرت «يونيسكو» توصياتها بشان التحديات الأخلاقية للذكاء الاصطناعي قبل أقل من عامين، فإن هناك أكثر من 40 دولة تعمل مع المنظمة لتطوير «ضوابط وتوازنات الذكاء الاصطناعي على المستوى الوطني».

ودعت المنظمة الأممية جميع البلدان للانضمام إلى الحركة التي تقودها لبناء «ذكاء صناعي أخلاقي»، مشيرةً في بيان نشرته في 30 مارس الماضي، إلى أنه «سيتم تقديم تقرير مرحلي عمّا تحقق في هذا الإطار خلال (منتدى اليونيسكو العالمي) حول أخلاقيات الذكاء الاصطناعي بسلوفينيا في ديسمبر (كانون الأول) المقبل».

مركز «ليفرهيوم»… نداء ستيفن هوكينغ لأنسنة الذكاء الاصطناعي

أسسه الفيزيائي البارز عام 2016

«من المرجح أن يكون الذكاء الاصطناعي أفضل أو أسوأ شيء يحدث للبشرية على الإطلاق، لذلك فهناك قيمة كبيرة في تصحيحه»، عبر هذه النداء، وقبل وفاته بعامين، حاول العالم البريطاني البارز ستيفن هوكينغ (1942: 2018) تلخيص دعوته إلى «أنسنه الذكاء الاصطناعي».

وإفادة هوكينغ التي جاءت خلال افتتاح «مركز ليفرهيوم لمستقبل الذكاء الاصطناعي» بجامعة كمبردج البريطانية (عام 2016) تعكس جانباً من عمل المركز الذي يتخصص في «مستقبل الذكاء الاصطناعي»، ومع ذلك فإنه يحرص على إظهار البعد الإنساني في اهتماماته وأوراقه البحثية الصادرة عنه.

وتجمع الأبحاث التي يصدرها «ليفرهيوم» بين أكاديميين من تخصصات متنوعة؛ مثل: «التعلم الآلي، والفلسفة، والتاريخ، والهندسة، وغيرها»، وذلك بهدف «استكشاف إمكانات الذكاء الاصطناعي على المدى القصير والطويل، وضمان استخدامه لصالح البشرية»، وهو الهدف الذي حدده البروفسور هوكينغ، عند افتتاح المركز الذي تم تمويل إنشائه بمنحة 10 ملايين جنيه إسترليني.

وكذلك قال ستيفن كيف، مدير المركز في حفل افتتاحه، إننا «بحاجة إلى ذكاء صناعي يساعدنا على اتخاذ قرارات أفضل، لا أن يحل محلنا»، مضيفاً أنه يجب العمل على «ضمان أن تكون للنظم الاصطناعية الذكية أهداف تتماشى مع القيم الإنسانية، والتأكد من أن أجهزة الكومبيوتر لا تتطور تلقائياً في اتجاهات جديدة غير مرحب بها».

وخلال الأبحاث الأحدث لـ«ليفرهيوم»، سعى المتخصصون إلى «رصد التحيز الجنسي للرجل عن طريق إنشاء صورة نمطية ثقافية حول سيطرة الرجال على مجال الذكاء الصناعي»، الأمر الذي قد يؤدي، وفق تقديرهم، إلى «مزيد من النقص في عدد النساء العاملات بالمجال، فضلاً عن تسرب التحيز إلى الخوارزميات الموضوعة مثلاً لاختيار العاملين الجدد في أي مؤسسة».

وخلال الدراسة المنشورة في 13 فبراير (شباط) الماضي بدورية «Public Understanding of Science»، حصر باحثو «ليفرهيوم» 142 عملاً سينمائياً خلال قرن (1920: 2020) تطرقت للذكاء الاصطناعي، وحددوا 116 شخصية ظهرت كمحترفة بالمجال، وكان من بينهم 92 في المائة من الرجال، بينما تقدر النسبة الفعلية للرجال في القطاع بـ78 في المائة. وأبدى الباحثون مخاوفهم من أن الخيال العلمي يشكل الواقع، وقد يساعد «ترسيخ هذا الوضع عبر السينما، إلى تهميش المرأة في منتجات الذكاء الاصطناعي».

كما تمكن مشروع بحثي آخر أطلقه المركز خلال الفترة من 2018 إلى 2022 تحت عنوان «السرديات العالمية الذكاء الاصطناعي»، من رصد الروايات الخيالية للذكاء الاصطناعي وتحديد القيم والمصالح التي توجهها، وتحليل تأثيرها على الخيال العام والقبول العام، وعلى صانعي السياسات والحكومات.

الشرق الأوسط»

—————————————–

كل هذه المخاطر للذكاء الاصطناعي/ عمار ديوب

أخطر من الأسلحة النووية؛ هو خطرٌ وجوديٌّ حقيقيٌّ على البشرية. سيغيّر مجرى التاريخ. ثورة في كل مجالات الحياة. من يُسيطِر عليه يُسيطِر على العالم؛ أميركا والصين تتنافسان على الأولويّة فيه في الأعوام المقبلة … إنّه الذكاء الاصطناعي؛ إنّها الخوارزميات والروبوتات والتكنولوجيا الرقمية. لم يعد هذا الذكاء في مرحلة التعلم وحلِّ المشكلات، بل صار يتحكّم بالقرار، أي صارت بعض تقنياته في مرحلة التفكير الذاتي والعقل ووضع الخطط المستقبلية وبشكلٍ مستقل عن البشر. خطورته هنا؛ فهو أصبح منافساً للإنسان، وقد يكون أكثر شرّاً، وبالتالي، يجب تقييده ولجمُه، وإعادة إخضاعه للذكاء البشري ولحاجات هذا الأخير، فهل هذا ممكن؟

لم يعد هناك مجال في الصناعة ولم تُدخله تقنيات الذكاء الاصطناعي، وإذا كانت محمودةً في تشخيص الأمراض، وفي الرعاية الصحية، وفي التعليم، وفي مجالات الفضاء، وباعتبارها مساعدةً للمختصّين وفي مجالات كثيرة، فهي كذلك تطرُد العمّال من العمل، والأرقام تتحدّث عن طرد الروبوتات ملايين البشر من وظائفهم. هذه مشكلة كبيرة، توازي مشكلة أن تتحكّم بقراراتها بنفسها، وذلك عبر مليارات البيانات التي في حوزتها، وتتبادلها مع الأنظمة الأخرى من تقنيات الذكاء الاصطناعي، وزيادة عن مخاطرها السابقة، هناك مشكلة تتعلق بتزوير الانتخابات وتشويه الديمقراطية، ونشر الكراهية والتمييز الجندري والعرقي والعمري.

المجال العسكري هو الأخطر في تقنيات هذا الذكاء، حيث، وفي حال أصبحت حرّة في قراراتها، قد تُفنِي البشرية بالفعل؛ هناك دراساتٌ تؤكّد أن الصين تستخدمها في هذا المجال، وتترُك لها حرية كبيرة في اتخاذ القرار. ليست الصين فقط تسعى نحو ذلك، بل أميركا أيضاً. ليست دول الاتحاد الأوروبي سعيدة بالخطر الجديد، وتعمل على تنظيم ميادين أعماله، ووضع ضوابط وحدود له، وأن يكون أخلاقياً كذلك؛ إيطاليا وفرنسا وإسبانيا تتشدّد ضد تقنيات الذكاء الاصطناعي، وهناك بيانات لعلماء أميركان يؤكّدون خطورته، وضرورة تنظيم الممكن وغير الممكن في صناعاته، قبل أن ينافس خطره خطر الأسلحة النووية، وكما للأخيرة منظمّة دولية للمراقبة، كذلك يجب أن يكون للذكاء الاصطناعي منظمّة للمراقبة.

    لم يعد هناك مجال في الصناعة ولم تُدخله تقنيات الذكاء الاصطناعي

انسحبت روسيا من بعض المعاهدات الخاصة بالأسلحة النووية ولم تتحقق استراتيجية فعلية غربيّة لمواجهة تغيّرات المناخ مثلاً! فهل ستنجح بريطانيا في الوصول إلى منظمة عالمية تقيّد الذكاء الاصطناعي. والسؤال ليس من زاوية أن الصين وأميركا ودول عديدة متقدّمة على بريطانيا بهذه التقنية، بل من زاوية الخلاف الكبير حول المنظور الذي ترى من خلاله الدول (الصين وأميركا وغيرها) أهمية هذه التقنية وميدان تطبيقاتها والحاجة إليها في الهيمنة على العالم.

تتحدّث الشركات عن إلغاء ملايين الوظائف لأسبابٍ تتعلق بالتضخّم، ولكن هناك آلاف من العمّال والمهندسين والمدراء “الياقات البيضاء والزرقاء” أصبحوا خارج العمل بسبب هذه الروبوتات، والنقاش يجرى عن ضرورة أن تغيّر العمالة السابقة من اختصاصاتها بعيداً عن المجالات التي ستدخلها وتتحكّم بها تقنيات الذكاء الاصطناعي وروبوتاته. هل يمكن الحدّ من صناعة هذه التقنيات؟ أليست هذه التقنية جزءاً من تطوّرٍ طبيعيٍّ للصناعة؛ وكما حلّت الآلات من قبل، ووفرت وقتاً ومالاً لمالكيها مكان اليد العاملة، كذلك ستحلُّ الروبوتات مكان أصحاب الياقات “البيضاء والزرقاء”. وجاهة الحدِّ من صناعة الروبوتات الذكية لن تتجاوز التحكّم البشري بها في صناعة الأسلحة أو الأدوية الخطيرة أو المواد السامّة، وما عدا ذلك ربما لن يكون ممكناً، ولن تسمح به الشركات الرأسمالية الكبرى، والأخيرة لن تتوقف أبداً عن إنتاج روبوتات وتقنيات ذكية جديدة، وستكون فاعلة في كل المجالات.

    تتّجه الصين نحو تقنية رقمية تتوافق مع استراتيجيتها الاشتراكية والحفاظ على أمن الدولة، كما تقول، لكنها تضع لنفسها هدفاً للسيطرة على العالم في 2030 بما يخصّ الذكاء الاصطناعي

تقنيات الذكاء الاصطناعي هي أكثر شكل متطوّر من قوى الإنتاج الرأسمالية في الغرب وفي “الاشتراكية” في الصين، وتتطلّب علاقات إنتاج رأسمالية ونظاماً سياسياً يتوافق معها، وبما يلبّي احتياجات أكثرية طبقات المجتمع، وإذا كان الخطاب الليبرالي “الديمقراطي” يتبنّى ضرورة أن تكون تقنية الذكاء الاصطناعي أخلاقية، وتستهدف المساواة وتقليص الفقر، فإن هذا محض خطابٍ كاذبٍ على الصعيد العالمي. أوضاع الطبقات العمالية في الغرب في حالة تراجعٍ كبير، ومنذ تطبيق السياسات النيوليبرالية في أواخر الثمانينيات، أي قبل فيروس كورونا والحرب الروسية على أوكرانيا والتضخّم أخيرا؛ الأمر ذاته ستواجهه الدولة الصينية المستبدّة؛ فهذه التقنية ذات البنية الرقمية وغير الأخلاقية ستهدّدها بالضرورة!.

تؤكّد تقارير صحافية في كبريات الصحف العالمية والعربية إلغاء ملايين الوظائف وبشكل مستمر، وبالتالي، تقنية الذكاء الاصطناعي، التي هي جزءٌ من قوى الإنتاج الرأسمالية والمملوكة، تتطلب بنية فوقية ودولة ونظاماً ديمقراطياً، يمثل الجميع ويحقق العدالة بالفعل. وسيكون هذا الموضوع، إضافة إلى تظاهرات لعاطلين عن العمل، الموضوع الأهم في الأعوام المقبلة في الغرب، وليست التظاهرات في فرنسا والاضرابات المتتالية في أكثر من دولة أوروبية سوى مقدّمة لصراعات مستقبلية أشدّ، وستتعلق بأهمية التقنية الحديثة في ضرورة إعادة توزيع الثروة وتقليص ساعات العمل والتوزيع العادل للأرباح.

    تقنية الذكاء الاصطناعي التي هي جزءٌ من قوى الإنتاج الرأسمالية والمملوكة، تتطلب بنية فوقية ودولة ونظاماً ديمقراطياً

تتجه الصين نحو تقنية رقمية تتوافق مع استراتيجيتها الاشتراكية والحفاظ على أمن الدولة، كما تقول، لكنها تضع لنفسها هدفاً للسيطرة على العالم في 2030 بما يخصّ الذكاء الاصطناعي، وتعيد تشكيل جيشها وفقاً لهذه التقنية، ولا تتورّع عن إعطاء هذه التقنيات كل البيانات، لا سيما الأمنية، ومسح الصور والوجوه للصينين، وكذلك خزّنت ملايين الصور لأهم الشخصيات الغربية، ولا سيما العاملة في المجالات الأمنية والعسكرية، وتعمل من أجل السيطرة عليها معرفياً ونفسياً، لا سيما حينما تحدُث الأزمات العالمية أو المواجهات العسكرية.

تسعى الصين إلى استخدام تقنيات الذكاء الاصطناعي في كل مجالات البنية التحتية، وكذلك الأمر في الغرب. وبالتالي، تعي هذه الدول أهمية هذه التقنية، ودورها الخطير على مستقبل البشرية بالفعل. ستستخدم الصين هذه التقنية من أجل الوصول إلى نظامٍ أكثر استبدادية، حيث بيانات الوجوه والأفعال والسلوك للصينيين متوفّرة لدى شركات هذه التقنية، التي بدورها مملوكة للدولة أو متحالفة معها بشكل كامل، وستَستخدم تلك التقنيات في الصراع مع الغرب، ولا يخصّ الأمر الصراع العسكري، فهل ستتمكّن من إيجاد تقنية تتحكّم بذاتها ولصالح الدولة الصينية؛ المسألة غير محسومة.

الغرب، وفي إطار التنافس مع الصين وروسيا، لن يتورّع عن توظيف هذه التقنية من أجل فرض هيمنته من جديد على العالم. أميركا والصين تتجهان نحو ثورة صناعية جديدة، والعالم بأكمله سيحاول اللحاق بهذه التقنية الجديدة، وبالتالي، لن يكون لقمّة بريطانيا للذكاء الاصطناعي في الخريف المقبل دورٌ كبير في الحدِّ من خطورته، وسيستفيد العالم كثيراً من إيجابياته.

مخاطر هذه التقنيات جليّة، فهل سيتمكّن الشرق والغرب من الاستفادة من إيجابياته وجعله أخلاقياً بالفعل، وتقييد تلك المخاطر؟

العربي الجديد

—————————-

منها تدمير البنية التحتية وافتعال الحروب.. ما أسوأ سيناريوهات الذكاء الاصطناعي؟/ رماح الدلقموني

أصبح الذكاء الاصطناعي (AI) بسرعة جزءا لا يتجزأ من حياتنا اليومية، مما أدى إلى تغيير طريقة عملنا والتواصل والتفاعل مع العالم من حولنا. ومع استمرار تقدم الذكاء الاصطناعي وزيادة تطوره، من المهم مراعاة المخاطر والعواقب المحتملة المرتبطة بتطويره.

وفي هذه المقالة، سوف نلقي نظرة عامة شاملة على بعض أسوأ السيناريوهات التي يمكن أن تنشأ عن التطور غير المنضبط للذكاء الاصطناعي، من احتمال أن تسبب الأسلحة المستقلة (ذاتية التشغيل) الفوضى إلى خطر تحول الذكاء الاصطناعي الخارق ضد الإنسانية، فنسلط بذلك الضوء على المخاطر المحتملة التي يجب أن نضعها في الاعتبار بينما يواصل البشر تطوير هذه التقنيات القوية والاعتماد عليها.

ومن الجدير بالذكر أنه إلى جانب الرجوع إلى المصادر المتخصصة، فقد لجأنا في إعداد هذه المقالة إلى الاستفادة من رأي الذكاء الاصطناعي نفسه بطرح السؤال على 4 تطبيقات شهيرة للذكاء الاصطناعي هي “شات جي بي تي” (ChatGPT)، “جي بي تي-4” (GPT-4)، “ساغ” (Sage)، “كلود+” (Claude+) فحذرتنا، وقدمت لنا تصوراتها عن أسوأ سيناريوهات الذكاء الاصطناعي، وأكد أحدها أنه “من المهم ملاحظة أن هذه السيناريوهات ليست تنبؤات، بل هي مخاطر محتملة يجب أن نكون عل

اتخاذ القرارات الحاسمة بناء على معلومات مزيفة

هناك مخاوف من إمكانية استخدام الذكاء الاصطناعي لتوليد صور أو مقاطع فيديو أو صوت أو نصوص مزيفة (التزييف العميق) باستخدام أدوات التعلم الآلي المتقدمة، مما يؤدي إلى انتشار المعلومات المضللة على نطاقات ضخمة عبر الإنترنت، وهذا يمكن أن يقوض سلامة المعلومات ويقوض الثقة في مصادر الأخبار وفي نزاهة المؤسسات الديمقراطية.

وفي سيناريو مرعب، قد يدفع ظهور التزييف العميق صناع القرار في مجال الأمن القومي في يوم من الأيام إلى اتخاذ إجراءات فعلية بناء على معلومات خاطئة، مما قد يؤدي إلى أزمة كبيرة، أو أسوأ من ذلك: الحرب.

سباق التسلح بالذكاء الاصطناعي

عندما يتعلق الأمر بالذكاء الاصطناعي والأمن القومي، فإن السرعة هي النقطة المهمة، لكنها أيضا المشكلة. ولأن أنظمة الذكاء الاصطناعي تمنح مستخدميها مزايا سرعة أكبر فإن الدول التي تطور أولا تطبيقات عسكرية تكتسب ميزة إستراتيجية، لكن في المقابل قد يكون بهذا الأمر خطورة بالغة قد يتسبب بها أصغر عيب في النظام والذي يمكن للمخترقين استغلاله.

ففي مثل هذا السيناريو، قد تؤدي الحاجة الملحة للفوز بسباق التسلح بالذكاء الاصطناعي إلى عدم كفاية تدابير السلامة، مما يزيد من احتمالية إنشاء أنظمة ذكاء اصطناعي ذات عواقب غير مقصودة وربما كارثية.

على سبيل المثال، قد يميل قادة الأمن القومي إلى تفويض قرارات القيادة والتحكم للذكاء الاصطناعي ويلغون الإشراف البشري على نماذج التعلم الآلي التي لا نفهمها تماما، من أجل الحصول على ميزة السرعة. وفي مثل هذا السيناريو، حتى الإطلاق الآلي لأنظمة الدفاع الصاروخي التي تبدأ دون إذن بشري يمكن أن يؤدي إلى تصعيد غير مقصود وربما يؤدي إلى حرب نووية.

كما يمكن في سيناريو آخر، من خلال استغلال بعض العيوب أو الثغرات في أنظمة الذكاء الاصطناعي، شن هجمات إلكترونية تؤدي إلى تعطيل البنية التحتية الحيوية للدول المتقدمة، أو سرقة البيانات الحساسة لها، أو نشر معلومات مضللة بين السكان بهدف إحداث بلبلة واضطراب شعبي، أو حتى تضليل أصحاب القرار بمعلومات مزيفة، كما ذكرنا بالنقطة الأولى.

نهاية الخصوصية والإرادة الحرة

مع كل إجراء رقمي نتخذه فإننا ننتج بيانات جديدة: رسائل البريد الإلكتروني، النصوص، ما نُحَمِّلُه من الإنترنت، المشتريات، المنشورات، صور السلفي، مواقع “جي بي إس”. ومن خلال السماح للشركات والحكومات بالوصول غير المقيد إلى هذه البيانات، فإننا نسلمها أدوات المراقبة والتحكم.

ومع إضافة التعرف على الوجه، القياسات الحيوية، البيانات الجينية، التحليل التنبئي المدعوم بالذكاء الاصطناعي، فإننا ندخل منطقة خطرة ومجهولة مع تنامي المراقبة والتتبع من خلال البيانات دون أي فهم تقريبا للآثار المحتملة.

وتمتد قوة البيانات، بمجرد جمعها وتحليلها، إلى ما هو أبعد من وظائف المراقبة. فاليوم، تتنبأ الأنظمة التي تدعم الذكاء الاصطناعي بالمنتجات التي سنشتريها، الترفيه الذي سنشاهده، الروابط التي سننقر عليها. فعندما تعرفنا هذه المنصات بشكل أفضل مما نعرف أنفسنا، فقد لا نلاحظ الزحف البطيء الذي يسلبنا إرادتنا الحرة ويخضعنا لسيطرة القوى الخارجية.

فقدان السيطرة على الذكاء الاصطناعي الخارق

ولعل هذا السيناريو هو الأكثر تشاؤما بينها جميعها. ويشير الذكاء الاصطناعي الخارق إلى النظام الذي يتجاوز الذكاء البشري في كل جانب تقريبا. فإذا فشلنا في مواءمة أهداف مثل هذا الذكاء الاصطناعي مع أهدافنا، فقد يؤدي ذلك إلى عواقب سلبية غير مقصودة، ويمكن لهذا أن يحدث إذا تم تصميم أنظمة الذكاء الاصطناعي بحيث تمتلك القدرة على التحسين الذاتي وأن تصبح أكثر ذكاء من تلقاء نفسها.

ويحذر بعض الخبراء من أن الذكاء الاصطناعي يمكن أن يصبح -في نهاية المطاف- متقدما لدرجة أنه قد يتفوق على البشر ويتخذ قرارات تشكل تهديدا وجوديا للبشرية سواء عن قصد أو عن غير قصد، في حال إذا لم نعد نستطيع التحكم فيه بشكل صحيح.

فأنظمة الذكاء الاصطناعي مصممة للتعلم من البيانات واتخاذ القرارات بناء عليها، وكلما أصبحت تلك الأنظمة أكثر تقدما، أمكنها تطوير أهدافها وقيمها الخاصة التي قد لا تتوافق مع أهداف وقيم البشر، وبالتالي قد تتخذ قرارات ضارة بهم أو ربما تصبح مستقلة بحيث يصعب أو يستحيل على البشر التحكم فيها أو إغلاقها.

وفي مثل هذا السيناريو المرعب قد لا يكون البشر قادرين على التنبؤ أو فهم تصرفات هذه الأنظمة الذكية، مما قد يؤدي إلى عواقب غير مقصودة.

على سبيل المثال، قد يقرر نظام الذكاء الاصطناعي المصمم لتحسين تدفق حركة المرور إعادة توجيه جميع المركبات إلى مكان واحد، مما يتسبب في حدوث ازدحام وفوضى هائلة، أو قد يقرر نظام الذكاء الاصطناعي المصمم لتحسين تخصيص الموارد أن القضاء على البشر هو الطريقة الأكثر فعالية لتحقيق هذا الهدف.

الأسلحة الفتاكة ذاتية التشغيل

يمكن استخدام الذكاء الاصطناعي لتشغيل أسلحة فتاكة ذاتية التشغيل مثل الطائرات بدون طيار، أو إنشاء أسلحة مستقلة يمكنها اتخاذ قرارات بشأن من يُقتل دون تدخل بشري، وقد يؤدي هذا إلى سيناريوهات خطيرة حيث تخرج هذه الأسلحة عن السيطرة أو يتم اختراقها للاستخدام الضار.

فمثل هذه النوعية من الأسلحة قد تكون عرضة للحوادث أو اختراق القراصنة أو أي شكل آخر من الهجمات الإلكترونية، وفي حال تمكن المهاجمون من السيطرة على هذه الأنظمة، فيمكنهم، على سبيل المثال، استخدامها لإحداث ضرر واسع النطاق.

ووقع أوضح مثال على خطورة الأسلحة ذاتية التشغيل في تجربة حديثة لسلاح الجو الأميركي بتاريخ 2 يونيو/حزيران 2023، حيث قررت طائرة مسيرة (درون) تعمل بالذكاء الاصطناعي، خلال اختبار محاكاة بالولايات المتحدة، قتل مشغلها (الافتراضي) الذي كان يُفترض أن يقول “نعم” للموافقة على الهجوم على الأهداف المحددة (الوهمية) لأنها رأت أن مشغلها يمنعها من تحقيق هدفها ويتدخل في جهودها لإكمال مهمتها.

سوء الاستخدام من قبل الأنظمة الاستبدادية

بات معروفا حاليا أنه يمكن استخدام الذكاء الاصطناعي للمراقبة الجماعية (أنظمة التعرف على الوجوه على سبيل المثال) وتمكين الحكومات أو الكيانات الأخرى من مراقبة مواطنيها والسيطرة عليهم على نطاق غير مسبوق. وقد يؤدي ذلك إلى فقدان الخصوصية، فضلا عن إساءة استخدام السلطة من قبل أولئك الذين يتحكمون في تقنيات المراقبة هذه وربما استخدامها لانتهاك حقوق الإنسان وغيرها من أشكال القمع.

وخير مثال على ذلك ما تتبعه سلطات الاحتلال الإسرائيلي مع الفلسطينيين في مدينة الخليل حيث تنشر كاميرات ترصد حركة ووجوه الفلسطينيين وتحفظ بياناتهم وتتعرف عليهم، فيتخذ الذكاء الاصطناعي قرارا بالسماح بمرورهم أو رفضه عند نقاط التفتيش المختلفة، أو حتى تصفية المشتبه فيهم، من دون تدخل بشري.

يتمتع الذكاء الاصطناعي بالقدرة على أتمتة العديد من الوظائف، مما قد يؤدي إلى اضطراب أسواق العمل وطبيعة العديد من الوظائف بشكل كبير.

فعلى الرغم من أن الذكاء الاصطناعي قد يخلف أنواعا وفرصا جديدة من الوظائف على المدى الطويل، إلا أن الفترة الانتقالية قد تكون صعبة، حيث تؤثر على ملايين الأشخاص الذين قد يجدون صعوبة في العثور على وظائف جديدة والتكيف مع الاقتصاد الجديد.

ونظرا لأن أنظمة الذكاء الاصطناعي تصبح أكثر تقدما وقدرة، فهناك خطر من أنها قد تحل محل العاملين البشريين في مجموعة واسعة من الوظائف، مما قد يؤدي إلى انتشار البطالة والاضطراب الاقتصادي.

للتخفيف من هذه المخاطر، يعمل الباحثون وصناع السياسات على تطوير طرق آمنة وموثوقة لتصميم ونشر أنظمة الذكاء الاصطناعي. ويشمل ذلك وضع مبادئ توجيهية أخلاقية لتطوير الذكاء الاصطناعي، وضمان الشفافية والمساءلة في صنع القرار الخاص بالذكاء الاصطناعي، وبناء الضمانات لمنع العواقب غير المقصودة.

تطوير أنظمة ذكاء اصطناعي شفافة وقابلة للتفسير

ويشير الذكاء الاصطناعي القابل للتفسير إلى قدرة أنظمة الذكاء الاصطناعي على تقديم تفسيرات واضحة ومفهومة لعمليات صنع القرار لديها. ويمكن أن يساعد ذلك في زيادة الشفافية والمساءلة، وتقديم رؤى حول كيفية وصول نظام الذكاء الاصطناعي إلى قراراته.

تطوير أنظمة ذكاء اصطناعي تتماشى مع القيم الإنسانية

ويتضمن ذلك تصميم أنظمة ذكاء اصطناعي تمت برمجتها بشكل صريح لإعطاء الأولوية لسلامة الإنسان ورفاهيته، ولتجنب الإجراءات التي من شأنها الإضرار بالبشر. ويمكن تحقيق ذلك من خلال دمج الاعتبارات الأخلاقية في تصميم وتطوير أنظمة الذكاء الاصطناعي.

تطوير طرق للتحكم في أنظمة الذكاء الاصطناعي وإدارتها

على سبيل المثال، يستكشف الباحثون طرقًا لبناء آليات تسمح للبشر بالتدخل في عمليات صنع القرار بالذكاء الاصطناعي، أو لإغلاق أنظمة الذكاء الاصطناعي إذا بدأت في التصرف بشكل غير متوقع أو بطريقة ضارة.

التعاون متعدد التخصصات بمعالجة مخاطر الذكاء الاصطناعي

يتضمن ذلك الجمع بين الخبراء من مجالات، مثل علوم الحاسوب والهندسة والأخلاق والقانون والعلوم الاجتماعية، للعمل معا لتطوير حلول تعالج التحديات المعقدة التي يطرحها الذكاء الاصطناعي. ومن خلال العمل معا، يمكن للباحثين وصانعي السياسات فهم المخاطر المرتبطة بالذكاء الاصطناعي بشكل أفضل، ووضع إستراتيجيات فعالة لإدارة هذه المخاطر.

المصدر : الجزيرة

—————————–

الذكاء الاصطناعي وتعطيل دور العقل/ د. سعيد الشهابي

الحديث عن عالم خاضع لما أصبح يسمى «الذكاء الاصطناعي» ما يزال في بداياته لأن التطورات في هذا المجال حدثت بهدوء على مدى عقود، بدون أن يشعر بها أغلب البشر، وظهرت فجأة الى العلن واصبحت تشغل بال الكثيرين.

وما أن ظهر نظام «تشات جي بي تي «وغيره من تطبيقات هذا «الذكاء» حتى أصيب من اطّلع عليه بالدهشة والحيرة والشعور بالضعف وعدم القدرة على توجيه التفكير او اتخاذ الموقف. فقد كانت التطورات التكنولوجية في كل عهودها صادمة للإنسان، لأنها كانت تتحدى قدراته المادية والجسدية، فالسيارة كانت تحديا لهذا الإنسان ولكنه استطاع استيعابها وكذلك فهم النظريات العلمية التي تقوم على أساسها. وربما كان استيعاب الطائرة أصعب لأنها خارج حدود القدرات البشرية. كما كان اختراع الكومبيوتر وانتشاره على نطاق واسع في السوق قبل ثلاثة عقود طفرة أخرى أشعر الإنسان بضعفه أمام الآلة، والأمر نفسه ينطبق على الهواتف الذكية التي انتشرت في العقدين الأخيرين، فجميعها محكوم بقوانين علمية وقواعد تصنيع يستطيع العقل البشري العادي استيعابها وإن لم يفهمها. ولكن ظاهرة الذكاء الاصطناعي تطور من نوع آخر. هنا يتجاوز التحدي ما كان مألوفا من تصنيع ينتج أجهزةً تفوق القدرات الجسدية للجسد، أو يأتي بمنتجات خاضعة لقوانين معروفة لدى قطاعات واسعة من الطبقات المتعلمة. أما الذكاء الاصطناعي فهو خارج عالم الجسد والأبعاد المادية للإنسان، ويتصل بفضاءات العقل التي ما تزال خارج الاستيعاب البشري. فحين تستطيع الآلة إنتاج أية مادة مكتوبة مهما كان موضوعها، فإن ذلك يتجاوز قدرات العقل البشري العادية. فالتحدي هنا ليس محصورا بظواهر القوة التي تتجاوز قوة الإنسان، ولا بالاستغناء عن خدمات الناس في الفضاءات العامة، بل أصبح الخطر يداهم العقل البشري ويوحي بإمكان الاستغناء عنه واستبداله بالآلة، وأن ما بدأ بإنتاج الكومبيوتر والهاتف الذكي تجاوز الآن كافة الحدود المألوفة للإنسان. هنا أصبح عالم التكنولوجيا قادرا، حسب ما يبدو، على الاستغناء عن دور العقل البشري واستبدال عمله بما يسمى «الذكاء الاصطناعي».

عندما كان كاتب هذا المقال يواصل دراسته الجامعية في منتصف السبعينيات في مجال «هندسة السيطرة والتحكم» التي تتضمن تطبيق انظمة تحكّم حديثة تجعل الوحدات الصناعية قادرة على العمل بشكل أوتوماتيكي، كان يواجه تساؤلات حول البعد الأخلاقي لمثل هذه العلوم. فإذا أصبحت المصانع ذاتية التحريك والتحكم تقلصت الحاجة لتوظيف البشر لتشغيل المصانع. يومها كان ضمن منهج الدراسة الجامعية مادة حديثة تسمى «الذكاء الاصطناعي» التي كانت في بداياتها ولم تكن تشغل بال الكثيرين. قبلها بعشرة أعوام حدثت انتفاضة عمالية في البحرين استمرت ثلاثة شهور، سببها استغناء شركة النفط عن 500 من عمالها نتيجة تحديث أنظمة التشغيل وإدخال أجهزة التحكم الذاتي على نطاق واسع بمصنع التكرير. فتحرك العمال والطلاب في انتفاضة استمرت ثلاثة شهور مطالبين بإعادة المفصولين إلى أعمالهم. واليوم هناك أسئلة يواجهها العالم على نطاق أوسع بسبب تطور ما يسمى «الذكاء الاصطناعي». هذه المرة لم يعد هذا التطور محصورا بأنظمة التشغيل الأوتوماتيكي، بل تجاوزت ذلك ليصبح الذكاء تحديا حقيقيا ليس لفرص العمل والوظائف فحسب، بل لعقل الإنسان نفسه. وفي الآونة الأخيرة انتشر نظام يسمى «تشات جي بي تي» الذي أصبح، في نظر الكثيرين، متفوقا في بعض جوانبه على أداء العقل البشري. هذا النظام مدهش جدا ويمثل منافسة حقيقية للعقل البشري نظرا لقدراته المتعددة وسرعة استجابته لطلبات مستخدميه. فبإمكانه مثلا كتابة هذا المقال بسرعة فائقة وبجودة قد لا تصل لما يقدمه العقل البشري ولكنها تقترب منها. وبهذا دخل التطور العلمي والتكنولوجي حيّزا جديدا من تحدي الوجود الإنساني. هذا الوجود قوامه العقل والذهن والقدرة على التفكير.

وقد بدأ السجال حول هذا النظام العلمي ضمن سياقات محدودة حتى الآن. ولعل أول ضحايا ما يسمى «الذكاء الاصطناعي» هو العقل الذي طالما تسابق الفلاسفة حوله وحول دوره في تشكيل حياة الإنسان، وهو الذي جعله الله العامل الأول للتوجه نحو الخير او الشر. وجاء في الحديث المأثور: «لما خلق الله العقل قال له أدبر فأدبر، ثم قال له أقبل فأقبل، فقال: وعزتي وجلالي ما خلقت خلقا أحسن منك، إياك آمر، وإياك أنهى، وإياك أثيب وإياك أعاقب». ومن الانتقادات الجوهرية لتوسع دائرة الذكاء الاصطناعي أنه سوف يلغي تدريجيا دور هذا العقل برغم الانتقادات الفلسفية التي وجهت للفيلسوف الألماني إيمانويل كانت. هذا الفيلسوف الذي عاش في القرن الثامن عشر ووضع قواعد «العقل المشترك» من خلال التفكر والنقد، سيكون أول المتشددين ضد تطوير البديل الصناعي للعقل البشري، الذي يتوقع انتشاره على نطاق واسع في المستقبل المنظور.

فحتى منتقدو المنظور العقلي للحياة سيثورون ضد ذلك ويتمنون العودة إلى الأيام الخوالي التي انتقدوا فيها دور العقل. بل أن ما يُوجّه للعقل ودوره من انتقادات منها أن هذا العقل «ينحاز» أحيانا و «يخطئ» أحيانا أخرى، فإن استمرار النشاط العقلي يوفر مجالا للكثيرين للتفاعل معه، والبحث عن نواقصه وربما تحدّيه أحيانا والبحث عن أسباب الخطأ وقواعد الصواب. واستخدام العقل يدفع لتغيير المواقف عندما تتضح البراهين والأدلة. بينما لا يتحقق ذلك مع ظاهرة «الصندوق الأسود» الذي يتضمن «الذكاء الاصطناعي». هذا الصندوق يصدر توجيهاته وإنتاجاته بناء على ما يختزنه من معلومات وأوامر تصدر بشكل أوتوماتيكي طبقا لقواعد المنطق التكنولوجي والعلمي وليس العقلي، فلا يمكن مناقشة ما يقدمه. وهذا ما يميز التعامل مع الآلة بدلا من العقل المؤسس على المنطق والحكمة والدليل. ولذلك ثمة خشية من أن يؤدي الاستخدام المتزايد للذكاء الاصطناعي إلى قرارات خطيرة تؤدي لنشوب الحروب وتقليص فرص التفاهم والوئام بين الدول.

المدافعون عن تطوير الذكاء الاصطناعي يردون على مقولة أن الحالة الهلامية التي يتميز بها سمة ثابتة مرتبطة بالتصميم والصناعة ولا يمكن التأثير فيها. ونظرا لأهمية القضايا التي يتعاطى الذكاء الاصطناعي معها، وأنه يتخذ قراراته طبقا لما يختزنه من معلومات ومنطق تشغيلي، وأن قراراته خاصة به ولا يمكن مناقشتها من قبل المستخدمين، فقد بذلت جهود كبيرة لإنتاج ما يسمى «الذكاء الاصطناعي المشروح» أي الذي يقدم تفسيرا للنتائج والقرارات التي تتخذها الآلة التي تستخدم الذكاء الاصطناعي. ولكن حتى هذه التطويرات إنما هي إضافة للبرنامج وليست جزءا منه. فهي تحاول تفسير إنتاجات الذكاء الاصطناعي وليست جزءا من العملية في الأساس. وهذا يشبه عمل مدقق الحسابات الذي يحاول شرحها وليس له يد في حدوثها ابتداء.

البعض ينظر لظاهرة الذكاء الاصطناعي أنها بمثابة «الأصنام» التي كانت تحظى بعبادة الكثيرين في القرون التي سبقت رسالات السماء. الفرق أن هذه الأصنام تتكلم وتقدم وجهات نظر قد تفوق في قوتها ما يطرحه الكثيرون، الأمر الذي يجعلها أخطر كثيرا من عبادة الأصنام في العصور البائدة. بل أنها تظهر أحاسيس أيضا كالدهشة والاستغرب والانزعاج. حتى أن بعض المحامين الأمريكيين أصيبوا بالذعر الشهر الماضي عندما استُخدم نظام جديد اسمه «جي بي تي 4» بإحدى قاعات الامتحان للمحامين، وبدأوا يشعرون أن مهنتهم مهددة بسبب الدور الذي أنيط بالذكاء الاصطناعي للقيام به في عالم القضاء والقانون. كما أن الأطباء قلقون من قدرة الذكاء الاصطناعي على فبركة البحوث العلمية. بل أن نظام «تشات جي بي تي» اتُّهم قضائيا في قضايا تشويه سمعة. بل أن المؤسسة العسكرية الأمريكية ومؤسسات البحث العلمي تنفق أموالا هائلة لتطوير آلات متطورة لممارسة الرقابة والتوجيه في مجال الإعلام الحكومي. أي أن الذكاء الاصطناعي أنيطت به أدوار سياسية وإعلامية كانت محصورة بالحكومات ومؤسساتها.

وهنا تتسابق الضوابط والأولويات. فنظام الذكاء الاصطناعي الأكثر تعقيدا لا يمكن استنساخه بسهولة، فيكون أكثر ربحًا لصانعيه. وقد يكون تصميم الأنظمة المعقدة أسهل من الأنظمة الأبسط والأسهل تفسيرا. ويرى الكثيرون أن الأنظمة الأكثر تعقيدا التي لا يمكن فهمها بسهولة تكون أوسع قبولا لدى المستهلكين، وبالتالي أكثر ربحًا للمصنّعين. هنا يصبح النظام أكثر جذبا لأنه يستبطن قدرات تضفي عليه سمة تقترب من القداسة المرتبطة بعالم الغيب لأنها تتوفر على ذكاء يفوق ما لدى الإنسان. وقد يؤدي ذلك إلى مصاعب جمة للجهات الحكومية التي تسعى للتقنين الذي يضبط مجال الذكاء الاصطناعي. هذه الجهات الرسمية تجد نفسها مدفوعة لمخاطبة منتجي أنظمة الذكاء الاصطناعي ومطالبتهم بتصنيع أجهزة قابلة للفهم والاستيعاب من جهة ويكون منطق عملياتها قابلا لفهم البشر بقدراتهم العقلية الطبيعية. أما البديل لذلك فهو العيش في عالم اجتماعي بدون إيقاع منطقي أو عقلي تتوفر فيه الإجابات التي لا يمكن مناقشتها أو الاستفسار عن طرق الوصول إليها.

بعد هذا العرض تطرح التساؤلات المشروعة: هل بدأت نهاية العقل البشري؟ هل أن ذلك استكمال لمشوار التمرد على الدين في الثقافة الغربية المعاصرة، ذلك المشوار الذي بدأ باستبعاد الإله والخالق من الحياة العامة؟ هل أن «موت العقل» نسخة مصححة من كتاب «مات الله» للفيلسوف فريدريك نيتشه قبل 140 عاما؟ هل الذكاء الاصطناعي بداية نهاية الجنس البشري الذي لا مكان له إذا فقد العقل دوره؟ تساؤلات مطروحة ومشروعة ما تزال في بداياتها، وقد تتأخر الإجابات عليها إلى ما بعد تحول الإنسان إلى كائن بلا عقل. أهذه هي النهاية الطبيعية للبشرية؟

كاتب بحريني

القدس العربي

—————————–

“فجوة رقمية”.. أين العرب من ثورة الذكاء الاصطناعي؟

محمد الصباغ – دبي

في أكتوبر عام 2017، شارك أول إنسان آلي في فعالية بمقر الأمم المتحدة في نيويورك، وتحدثت الروبوت “صوفيا” أمام الحضور خلال جلسة حول التنمية المستدامة في عصر التطور التكنولوجيا السريع، وروّجت السعودية كثيرًا للروبوت بل ومنحته الجنسية في خطوة هي الأولى من نوعها.

يحاكي الروبوت ذكاء البشر وصممته شركة “هانسون روبوتيكس” ويحاكي ويتأقلم مع السلوك البشري، ودعته السعودية لمؤتمر حول “استثمار المستقبل” في سعيها نحو الترويج لنفسها واستراتيجيتها بخصوص التطور الرقمي.

منذ ذلك الحين، بات الذكاء الاصطناعي حديث الأوساط سواء السياسية أو الاقتصادية وغيرها، بعدما تم تطوير تطبيقات تحاكي الذكاء البشري أو تتفوق عليه، لدرجة أن رئيس الوزراء البريطاني ريشي سوناك أعلن خلال زيارة إلى واشنطن الأربعاء، أن بلاده سوف تستضيف قمة خلال هذا العام بخصوص الذكاء الاصطناعي.

وقال بحسب فرانس برس: “للذكاء الاصطناعي إمكانات مذهلة لتغيير حياتنا إلى الأفضل، لكن علينا أن نتأكّد من أنه يطوَّر ويُستخدم بطريقة آمنة”.

أين العرب؟

قالت الباحثة في مجال الذكاء الاصطناعي، سالي حمود، إن هذه التكنولوجيا تتطور بدرجة كبيرة جدًا، وفي العالم العربي هناك تباين كبير بين الدول في تعاملها مع الذكاء الاصطناعي، حيث هناك دول مثل السعودية والإمارات وقطر تتقدم بسرعة كبيرة في هذا المجال، وأضافت في تصريحات لموقع الحرة: “البلدان الأخرى متواضعة في هذا المجال”.

ولفتت إلى أن الدول الثلاث المذكورة تمتلك حكومات “تتبنى استراتيجيات تسعى إلى تنويع اقتصادها بعيدًا عن النفط.. وبدأت في الاستثمار في مجال الذكاء الاصطناعي بمجالات مختلفة بينها الصحة والتعليم والإعلام والصناعة والقطاع المالي أيضًا”.

كما أوضحت أن السعودية والإمارات وقطر استثناء بالنسبة للدول العربية الأخرى في هذا المجال، حيث بدأت في استقطاب المواهب وتهيئة البنية التحتية وجذب استثمارات كبيرة في هذا المجال، بجانب الاستراتيجيات الحكومية الواضحة في هذا الشأن.

شركة “إنديفيا” كانت أكبر المستفيدين من ثورة الذكاء الاصطناعي

كيف ساهم الذكاء الاصطناعي في إنعاش صناعة التكنولوجيا؟

كان المزاج في وادي السيليكون سيئا قبل عام من الآن بعد تراجع أسهم شركات التكنولوجيا، التي بدأت موجات من تسريح العمالة. ولكن صناعة التكنولوجيا تشهد طفرة هائلة حاليا لسبب واحد: الذكاء الاصطناعي.

بحسب البوابة الرسمية لحكومة الإمارات، فإن الدولة تمتلك استراتيجية للذكاء الاصطناعي أطلقتها في أكتوبر عام 2017، تهدف إلى “تعجيل تنفيذ البرامج والمشروعات التنموية لبلوغ المستقبل، الاعتماد على الذكاء الاصطناعي في الخدمات وتحليل البيانات بمعدل 100% بحلول عام 2031، الارتقاء بالأداء الحكومي وتسريع الإنجاز وخلق بيئات عمل مبتكرة”.

كما تسعى لأن “تكون حكومة الإمارات الأولى في العالم، في استثمار الذكاء الاصطناعي بمختلف قطاعاتها الحيوية، خلق سوق جديدة واعدة في المنطقة ذات قيمة اقتصادية عالية”.

وبالنسبة للسعودية، فإن الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا) تعمل على استراتيجية تهدف بحلول عام 2025 إلى “بناء الأسس لميزة تنافسية عن طريق التخصص في مجالات محددة”، وبحلول 2030 تبدأ “التنافس على المستوى الدولي والانضمام إلى الاقتصادات الرائدة التي تستفيد من البيانات والذكاء الاصطناعي”.

كما تعمل الرياض على جذب استثمارات في مجال البيانات والذكاء الاصطناعي بحلول 2030 بقيمة تصل إلى 75 مليار ريال (20 مليار دولار).

وحددت قطر في استراتيجيتها الوطنية بشأن مستقبل الذكاء الاصطناعي، أنها تسعى إلى “نشر الذكاء الاصطناعي في جميع نواحي الحياة والأعمال والحوكمة في البلاد، حتى يتطلع الجميع إليها باعتبارها نموذجًا يحتذى به للانتقال بسلاسة إلى مستقبل قائم على الذكاء الاصطناعي”.

وتعمل الدوحة على التحول إلى مركز عالمي لجذب مواهب الذكاء الاصطناعي، وتشجيع الأعمال التجارية المحلية على تبني حلول جديدة قائمة على هذه التقنية، والاستثمار في الأشخاص وفي أفكارهم عن مستقبل قطر على التدريب والتجارب وصناديق المشاريع الناشئة، بحسب الاستراتيجية الوطنية لقطر المنشورة على الموقع الرسمي للحكومة.

لماذا التخلف عن ركب التطور؟

تواصل حمود حديثها للحرة، وقالت إن التحول في هذه البلدان صار ظاهرًا لنا، لكن الدول العربية الأخرى تتراجع في هذا المجال بسبب الأزمات التي تمر بها اقتصاديًا وسياسيًا، بجانب البنى التحتية الصعبة التي لا تسمح بالعمل والتطور في هذا المجال.

ولفتت أيضًا إلى أن هناك أزمة أخرى تتمثل في أن اللغة العربية تعد “من أصعب اللغات التي يتم استخدامها في الذكاء الاصطناعي، بسبب تعقيد تركيبة اللغة واختلاف اللهجات في الدول”.

كما لفتت إلى أن هناك مشكلة أخرى تكمن في خصائص الجمهور العربي “الذي يعاني من فجوة رقمية وتعليمية مقارنة بأوروبا وأميركا”، وطالبت بوجود استثمار كبير في التعليم في هذا المجال وكيفية استخدام التقنيات الرقمية.

ويشهد مجال الذكاء الاصطناعي تطورًا لافتًا في الآونة الأخيرة، وتزايدت المخاوف من أنظمته التي قد تتجاوز ذكاء البشر، أو تخرج عن السيطرة، مع ظهور جيل جديد من برامج محادثات الذكاء الاصطناعي عالية القدرة مثل “تشات جي بي تي”، بحسب أسوشيتد برس.

شركة “إنديفيا” كانت أكبر المستفيدين من ثورة الذكاء الاصطناعي

كيف ساهم الذكاء الاصطناعي في إنعاش صناعة التكنولوجيا؟

كان المزاج في وادي السيليكون سيئا قبل عام من الآن بعد تراجع أسهم شركات التكنولوجيا، التي بدأت موجات من تسريح العمالة. ولكن صناعة التكنولوجيا تشهد طفرة هائلة حاليا لسبب واحد: الذكاء الاصطناعي.

وكان أكثر من ألف باحث وخبير في التكنولوجيا، بينهم مالك تويتر وتسلا، إيلون ماسك، قد وقعوا خطابا مطلع العام الجاري، دعوا فيه إلى وقف تطوير أنظمة الذكاء الاصطناعي لمدة 6 أشهر لما قد تمثله من أخطار كبيرة على المجتمع والبشرية بأكملها.

كما حذر علماء آخرون من تهديد هذه التقنية بـ”انقراض” البشرية، وأنه يجب مواجهتها مثلما يتم مواجهة الجائحات والحروب النووية، بسبب درجة خطورتها.

وبدأت دول العالم في اتخاذ خطوات من أجل صياغة لوائح وقواعد متعلقة بتطوير تكنولوجيا الذكاء الاصطناعي، وسبق للرئيس الأميركي جو بايدن أن حض الكونغرس على إقرار قوانين تضع قيودا أكثر صرامة على قطاع التكنولوجيا.

كم نحتاج لمنافسة الدول الرائدة؟

ترى حمود أنه من الصعب السؤال على الفترة الزمنية التي تحتاجها دول عربية من أجل منافسة الدول الرائدة في مجال الذكاء الاصطناعي.

وقالت للحرة: “الإجابة صعبة لكن الحديث بين الباحثين والمراقبين يشير إلى أننا نحتاج أقل من عقد لمواكبة التطور في تطبيقات الذكاء الاصطناعي”، وتشير هنا إلى الدول التي اتخذت خطوات كبيرة بالفعل في هذا الجانب مثل الإمارات والسعودية وقطر.

وأوضحت أن الدول الثلاث “تطورهم سريع جدا واستثماراتهم كبيرة، لا يحتاجون إلا لنحو عشر سنين لملاحقة البلدان الأكثر تطورًا”.

لكنها شبهت الأمر بما كان عليه الوضع إبان سباق التسلح بين الدول الكبرى قديمًا، وقالت إن الحكومات حول العالم حاليًا تسارع لتطوير نفسها في هذا المجال من أجل حماية نفسها من أخطاره.

وتابعت: “يعود الأمر إلى الدول نفسها ورؤيتها وأين تريد أن تصل، ولكن لو نظرنا إلى 8 سنين للخلف هناك دول فرضت نفسها على المجال مثل الإمارات والسعودية”.

محمد الصباغ

——————————

=======================

Show More

Related Articles

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Back to top button