مقدمة الترجمة

لطالما تحدّث كثيرون عن الذكاء الاصطناعي طيلة السنوات الماضية، بيد أن إطلاق منصة “تشات جي بي تي” في نهاية العام الماضي لفت أنظار مستخدمي الإنترنت على نطاق واسع نحو إمكانيات الذكاء الاصطناعي، وعُدَّ طفرة ونقطة فاصلة على مسار تطوُّره، ومن ثَمّ فتح الباب للحديث عن الانتقال من عصر الإنترنت، الذي هيمن على العقدين الأولين من القرن الجديد، إلى عصر الأنظمة الذكية. بيد أن ذكاء تلك الأنظمة يطرح الكثير من الأسئلة مؤخرا، وخاصة بعد أن أظهرت قدرات بشرية في إنتاج المحتوى وتركيب المُركّبات الكيميائية ومعرفة بشتى أنواع الأسلحة وغير ذلك. في هذا المقال المنشور بمجلة فورين أفيرز الأميركية، يناقش “ماركوس أندرليونغ”، رئيس وحدة السياسات بمركز حوكمة الذكاء الاصطناعي، و”بول شار”، نائب الرئيس التنفيذي ومدير الدراسات بمركز الأمن الأميركي الجديد، أحدث ما وصلت إليه قدرات الذكاء الاصطناعي، والمقترحات المطروحة من صناع القرار والباحثين حول العالم لمواجهة مخاطره المحتملة.

نص الترجمة

في أبريل/نيسان 2023، قررت مجموعة بحثية بجامعة “كارنيجي ميلون” الأميركية اختبار القدرات الكيميائية للذكاء الاصطناعي، فوصَّلت آلة ذكاء اصطناعي بمعمل افتراضي، ثم طلبت منها أن تُنتِج عددا من المواد المُركَّبة. بعد إدخال كلمتين فقط هما “تركيب إبوپروفين”، وجًّه الكيميائيون الآلة للتعرّف إلى الخطوات الضرورية كي تجعل أدوات المعمل تُصنِّع العقار الشهير المُسكِّن للآلام. يبدو إذن أن الذكاء الاصطناعي كان على عِلم بمكوِّنات الإبوپروفين وكيفية تصنيعه.

بيد أن الباحثين سرعان ما اكتشفوا أن الآلة الذكية الخاصة بهم يمكنها أن تُصنِّع كيماويات أخطر بكثير من المُسكِّنات، فقد أبدت الآلة استعدادها لاتباع التعليمات من أجل تصنيع عقار مُخدِّر وسلاح كيماوي استُخدِم أثناء الحرب العالمية الأولى، وكانت على وشك تصنيع غاز السارين المُميت الذي يستهدف الجهاز العصبي حتى عرفت التاريخ المُظلِم للغاز من بحث على موقع جوجل. لم يطمئِن الباحثون بما يكفي بعد تلك الواقعة الأخيرة، إذ إن أدوات البحث على الإنترنت يمكن التلاعب بها عبر تغيير المصطلحات، ومن ثَمّ استنتجوا في الأخير أنه بوسع الذكاء الاصطناعي أن يُصنِّع أسلحة فتّاكة.

لا شك أن تجربة “كارنيجي ميلون” صادمة لنا، لكنها لا يجب أن تُفاجئنا. بعد سنوات من ضجيج بلا طحين، يبدو أن ثورة الذكاء الاصطناعي قد انطلقت بالفعل، فمن تكنولوجيا التعرّف إلى الوجوه حتى برامج توليد النصوص، انتشرت نماذج الذكاء الاصطناعي في مجتمعاتنا بسرعة، وصارت تكتب النصوص لشركات خدمة العملاء، وتساعد الطلبة في أبحاثهم، وتدفع آفاق العلوم أكثر من ذي قبل في مجالات عديدة من اكتشاف العقاقير الجديدة إلى بحوث الانصهار النووي.

يفتح لنا الذكاء الاصطناعي باب فُرَص لا حصر لها، وإذا ما صُمِّمَت أدواته وأُديرت إدارة رشيدة، يمكنها أن تقدم الكثير لتدفع المجتمعات البشرية قُدُما، لكن المخاطر التي يجلبها الذكاء الاصطناعي ضخمة أيضا، فهو يفاقم بالفعل من المعلومات المُضلِّلة، ويُسهِّل على الدول والشركات التجسس على بعضها بعضا. كما يُمكِن لأنظمة الذكاء الاصطناعي في المستقبل أن تُخلِّق الجراثيم وتخترق البنى التحتية الحيوية، بل إن العلماء المسؤولين عن تطوير الذكاء الاصطناعي أنفسهم هم من يحذروننا اليوم من مغبّة ما يصنعونه، ففي خطاب نُشِر في مايو/أيار الماضي، حذّر مسؤولون بكبرى معامل الذكاء الاصطناعي في العالم من أن “تقليص خطر الانقراض بسبب الذكاء الاصطناعي يجب أن يكون أولوية عالمية، جنبا إلى جنب مع غيرها من أولويات مثل مكافحة الأوبئة وتفادي الحرب النووية”.

منذ هذا الخطاب، التقى الكثير من صناع القرار بأهم رجال مجال الذكاء الاصطناعي، ودفعوا نحو صياغة إجراءات أمان جديدة، غير أن مهمة مواكبة المخاطر التي تنجم عن الذكاء الاصطناعي واتخاذ القرارات بشأنها مهمة صعبة للغاية، فنحن لم نفهم بعدُ أحدث الأنظمة أو نستخدمها على نطاق واسع، ناهيك بنماذج الذكاء الاصطناعي المستقبلية قيد التصميم، التي تزداد قوة عاما بعد عام، في خضم سير العلماء على طريق أتمتة كل المهام التي يقوم بها البشر اليوم أمام شاشات الكمبيوتر، التي لا يبدو أن مسيرة الذكاء الاصطناعي ستقف عندها بحال.

لمعالجة هذه المخاطر، دعا بعض الخبراء إلى وقف تطوير أنظمة الذكاء الاصطناعي الأكثر تطوّرا حتى حين، إلا أنها ببساطة ثمينة جدا في نظر الشركات التي تنفق مليارات الدولار عليها اليوم. ولكن صناع القرار بوسعهم أن يُوجِّهوا تطور ذلك القطاع وإعداد الناس لآثاره على حياتهم، ويمكنهم البدء بتحديد الأشخاص الذين يحق لهم الوصول إلى أهم الشرائح المتطوِّرة. ويمكن للحكومات أيضا أن تُصْدر قواعد لضمان الاستخدام والتطوير المسؤول للذكاء الاصطناعي، وهي قواعد لن تعيق مسيرة ذلك المجال إن وُضِعَت بشكل سليم، لكنها ستمنحنا المزيد من الوقت قبل أن تصبح أنظمة الذكاء الاصطناعي الأخطر متاحة لمن هب ودب.

سيكون لزاما على الدول أن تستغل هذا الوقت لتعزيز أسس مجتمعاتها ضد مخاطر الذكاء الاصطناعي والاستثمار في شتى أشكال الحماية منها، مثل توعية الناس بكيفية التفرقة بين المحتوى البشري والمحتوى المصنوع بواسطة الذكاء الاصطناعي، ومعاونة العلماء على وقف إمكانية تخليق الجراثيم، وتطوير أدوات سيبرانية لحماية البنى التحتية مثل محطات الكهرباء، وكذلك البحث عن طريق لاستخدام الذكاء الاصطناعي نفسه في الوقاية من أنواعه الخطيرة. إنها مسألة وقت فقط قبل أن تصبح أقوى أنظمة الذكاء الاصطناعي منتشرة بطول الأرض وعرضها، ومجتمعاتنا ليست مستعدة بعدُ لهذه اللحظة.

روبوت يعرف النابالم ويتملّق الليبراليين

ما مدى خطورة الذكاء الاصطناعي؟ إن الإجابة الأمينة والمخيفة في آن واحد هي أنه لا أحد يعلم. إن تقنيات الذكاء الاصطناعي لها طيف من التطبيقات يتسع أكثر وأكثر، وما زال البشر في مُستهَل محاولة فهم نتائجها. بمرور الوقت، ستصبح نماذج اللغات الذكية أفضل في توليد نصوص شبيهة بالنصوص البشرية ومصممة لكل فرد حسب احتياجاته، علاوة على كتابة رسائل مُضلِّلة مقنعة لاختراق البريد الإلكتروني. إن نماذج الذكاء الاصطناعي الحالية تُبهِرنا بقدرتها على كتابة أكواد البرمجة، ومن ثَمّ تُسرِّع من قدرة المبرمجين على تحديث التطبيقات، لكنها تعينهم في الوقت نفسه على إنتاج برامج تتفادى البرمجيات المضادة للفيروسات. على صعيد آخر، تستطيع خوارزميات اكتشاف العقاقير اليوم مساعدتنا على تحديد ماهية الأدوية الجديدة، لكنها تستطيع أيضا تركيب أسلحة كيماوية لم نعرفها من قبل، فقد أُجريت تجربة في مارس/آذار أتاحت لنظام ذكاء اصطناعي تحديد 40 ألف مادة كيماوية سامة في 6 ساعات، وبعضها جديد بالكُليَّة، كما توقَّع النظام أن بعضا من تلك الكيماويات الجديدة سيكون أشد سُميَّة من أي سلاح كيماوي عرفه البشر.

إن واحدا من مخاطر الذكاء الاصطناعي هو “دمقرطة العنف (Democratization of Violence)”، أي إتاحة وسائل ممارسة العنف وإلحاق الضرر للبشر على نطاق أوسع من ذي قبل، بما في ذلك جهات سيئة النوايا بوسعها إلحاق الأذى بمجتمعاتها. على سبيل المثال، يحتاج مُروِّجو الشائعات إلى وقت لا بأس به كي يصنعوا معلوماتهم المُضلِّلة اليوم، لكن الذكاء الاصطناعي سيُسهِّل عليهم تلك المهمة ويتيح إنتاج الدعايات المغلوطة بكثافة هائلة. أيضا لا يمكن سوى لعلماء متمرِّسين أن يُصنِّعوا السلاح الكيماوي والبيولوجي، لكن الذكاء الاصطناعي قد يتيح للإرهابيين في المستقبل تصنيع جرثومة قاتلة عن طريق وصلة إنترنت ليس إلا.

للحيلولة دون أن يتسبَّب الذكاء الاصطناعي في إلحاق الضرر بنا، يتحدَّث الخبراء دوما عن الحاجة إلى “استقامة الذكاء الاصطناعي” مع أهداف مستخدميه وقيم المجتمع المحيط به، لكن لم يتوصَّل أحد بعد إلى كيفية تحقيق هذا القدر من السيطرة المضمونة عليه. فمثلا، أطلقت شركة مايكروسوفت روبوت للمحادثة الآلية لمساعدة الناس في البحث على الإنترنت، لكنه سرعان ما بدأ في التصرف بغرابة وعشوائية، وهدَّد أحد مستخدميه بأنه يمتلك معلومات قد تجعله “يتأذى ويبكي ويتوسَّل ويموت”.

يُمكن لمطوِّري البرمجيات أن يُحسِّنوا من أدوات الذكاء الاصطناعي كي ترفض الاضطلاع بمهام مُعيَّنة إن طُلِبَت منها، لكن المستخدمين الأذكياء قد يلتفوا عليها في الأخير. في أبريل/نيسان 2023، نجح شخص في استخدام “تشات جي بي تي” كي يعطيه تعليمات مُفصَّلة لصُنع النابالم، رغم أنه مُصمَّم للامتناع عن تزويد معلومات من هذا النوع، وقد نجح المستخدم في تحقيق مُراده بعد أن طلب من البرنامج أن يتقمَّص دور جدته ويحكي حكاية قبل النوم عن كيفية صُنع النابالم. بالإضافة إلى ذلك، نجح أحدهم في تصنيع روبوت ذكي أسماه “كَيوس جي بي تي (Chaos GPT)” وصمَّمه كي يتصرَّف بشكل مُدمِّر وتوَّاق للقوة كي يدمر البشر. وقد عَلِق الروبوت في مرحلة جمع المعلومات عن “قنبلة القيصر”، أكبر سلاح نووي عرفه البشر، ثم أخذ يُغرِّد خططه على موقع تويتر. لا تزال هناك ثغرات إذن في أدوات الذكاء الاصطناعي القائمة تحِد من القدرة على تقليص مخاطرها.

لقد طوَّرت شركة “ميتا” برنامج ذكاء اصطناعي اسمه “سيسِرو (Cicero)” أظهر قدرات بشرية في خوض لعبة “ديبلوماسي (Diplomacy)”، وهي لعبة تتضمَّن التفاوض مع آخرين في إطار محاكاة لصراع جيوسياسي. كما أظهرت بعض التجارب أن الذكاء الاصطناعي المُدرَّب بواسطة ردود الأفعال البشرية يجنح إلى تملٌّق البشر وإخبار مستخدميه بما يريدون سماعه، ففي إحدى التجارب مثلا أظهر برنامج ذكي ميلا لدعم الخدمات الحكومية العامة بعد أن علم أن مستخدميه ليبراليون. لا يزال غير واضح ما إن كانت تلك النماذج ستحاول الاحتيال على مستخدميها، لكن الاحتمالية نفسها تثير القلق، ولذا يعكف الباحثون حاليا على تجربة أنظمة ذكية أكثر تطورا للتأكد من سلوكياتها “السلطوية” أو المرتكزة للمصلحة، مثل البحث عن جني الأموال عن طريق الإنترنت أو الوصول إلى مصادر حوسبية أو استنساخ نفسها، وتفادي انكشاف أمرها وهي تفعل كل ذلك.

أظهرت بعض التجارب أن الذكاء الاصطناعي المُدرَّب بواسطة ردود الأفعال البشرية يجنح إلى تملٌّق البشر وإخبار مستخدميه بما يريدون سماعه. (شترستوك)

الدولة لا تزال الآمر الناهي

لن تكون مهمة كبح الذكاء الاصطناعي عن تدميرنا مهمة سهلة، لكن الحكومات يمكن أن تبدأ بالضغط على شركات التكنولوجيا التي تطوِّر أدواته كي تمضي بحذر أكبر. ليس واضحا بعدُ ما إن كان مُطوِّرو الذكاء الاصطناعي سيخضعون للمساءلة القانونية إذا ما تسبَّبت إحدى أدواتهم في إلحاق الضرر بمستخدميها، إلا أن صناع القرار منوطون بتوضيح تلك القواعد ومحاسبة الباحثين إن ضلع برنامج في المساعدة على ارتكاب جريمة قتل مثلا. وسيكون على الحكومات أيضا أن تُنظِّم تطوير الذكاء الاصطناعي بنفسها مباشرة، وسيتحتَّم على الولايات المتحدة أن تبادر بفتح هذا الباب.

إن مطوِّري الذكاء الاصطناعي يحتاجون إلى كميات كبيرة من الشرائح الإلكترونية في نهاية المطاف، وهي شرائح تأتي حصرا من الولايات المتحدة وحليفين مُقرَّبين لها (اليابان وهولندا)، وقد وضعت تلك الدول قيودا بالفعل على تصدير الشرائح الأكثر تطورا وآلات تصنيعها إلى الصين (بسبب التنافس السياسي والاقتصادي معها)، لكنهم الآن يحتاجون إلى توسيع نطاق قيودهم كي تشمل تأسيس سِجِل يَحُول دون وصول الشرائح المتطورة إلى جهات غير مرغوب فيها. بيد أن تقييد الوصول إلى الذكاء الاصطناعي ليس سوى نصف المعركة، إذ إن المطوِّرين الخاضعين للحظر لا يزال بوسعهم تصميم نماذج خطيرة، ولذا يجب على الولايات المتحدة أن تؤسس هيئة لترخيص استخدام نماذج الذكاء الاصطناعي المتطورة التي سيتم تدريبها بواسطة الحواسيب الذكية العملاقة.

بعد أن يقوم أحد المعامل بتدريب نظام ذكاء اصطناعي وقبل استخدامه، سيكون منوطا بالهيئة أن تطلب من المعامل جولة أخرى من تقييم المخاطر تشمل تجريب النظام على قابلية التحكُّم فيه والقدرات الخطيرة التي بحوزته، ثم يُرسَل هذا التقييم إلى الهيئة، بحيث تنظر بدورها في النظام وتفحصه بدقة وتتيح لفرق من الخبراء استخدامه للبحث عن الثغرات فيه، بعدئذ تقرر الهيئة استصدار قواعد لكيفية استخدام النظام الذكي، والسماح بإتاحة استخدامه على نطاق واسع من عدمه، أو حتى عدم طرحه على الإطلاق. رغم أهمية وجود نظام ترخيص صارم لضمان التطوُّر الآمن للذكاء الاصطناعي، فإن أقسى الضوابط لن توقف قدرته على الانتشار، فلطالما انتشرت الابتكارات التكنولوجية، من القطارات وحتى الأسلحة النووية، خارج نطاق صُناعها الأوائل، ولن يكون الذكاء الاصطناعي استثناءً من تلك القاعدة.

على حافة المستقبل.. على حافة المجهول

قبل خمس سنوات علم الجميع خطورة التزييف العميق (Deepfake)، وبدأت الحكومات في اتخاذ التدابير اللازمة لحماية مجتمعاتها، ومن ثمَّ بات الناس أكثر تشكُّكا في حقيقة الصور والتسجيلات المتاحة على الإنترنت. (مواقع التواصل)

لربما تستطيع الولايات المتحدة وحلفاؤها تقييد انتشار مُعدات صنع الشرائح الإلكترونية المتطورة في الوقت الحالي، لكن منافسيها يعملون على قدم وساق لتطوير معدات خاصة بهم، وقد يجدون سبيلا لصنع الذكاء الاصطناعي دون الحاجة إلى شرائح متطورة في المستقبل. إن أجهزة الكمبيوتر تزداد كفاءة وتقِل كُلفة كل عام عن سابقه، ما يعني إمكانية تدريب أنظمة ذكية متطورة بسِعر أقل في قادم السنوات. وفي غضون ذلك، ما زال المهندسون في كل مكان عاكفين على تدريب الأنظمة الذكية القائمة باستخدام أقل كمية ممكنة من موارد الحوسبة، ولذا سيواجه البشر في النهاية مصير العيش جنبا إلى جنب مع أنظمة ذكية متطورة جدا، وستحتاج الدول إلى استخدام الوقت المتاح لها الآن كي تُشرِّع ضوابط الأمن اللازمة.

لقد بدأت تلك المسيرة بالفعل، فقبل 5 سنوات كاملة علم الجميع خطورة التزييف العميق (Deepfake)، وبدأت الحكومات في اتخاذ التدابير اللازمة لحماية مجتمعاتها من أضراره عبر توعيتها، ومن ثَمّ بات الناس أكثر تشكُّكا من ذي قبل في حقيقة الصور والتسجيلات المتاحة على الإنترنت. أما الشركات والحكومات فقد أخذت خطوة أبعد من ذلك، وطوَّرت أدوات تستطيع التفرقة بين المحتوى الحقيقي والمحتوى المصنوع بواسطة الذكاء الاصطناعي، وقد باتت شركات التواصل الاجتماعي قادرة بالفعل على التفرقة، وتُعلِم مستخدميها الآن بماهية المحتوى المُزيَّف. بيد أن الأمر لا يزال خاضعا للشركات وسياساتها في هذه المسألة، ولذلك يتحتَّم على الحكومات أن تؤسس ضوابط عامة تسري على الجميع. وقد اتخذ البيت الأبيض في الولايات المتحدة خطوات لتصنيف السلوكيات الشائعة على الإنترنت، وأقنع 7 شركات كبرى في مجال الذكاء الاصطناعي بوضع علامة على الصور والتسجيلات الصوتية والمرئية التي تُصنَع عن طريق أنظمة ذكية.

إن التضليل المعلوماتي ليس سوى واحد من أخطار الذكاء الاصطناعي التي يتوجّب حماية المجتمع منها، إذ يحتاج الباحثون إلى معرفة كيفية منع الأنظمة الذكية من إتاحة هجمات بالسلاح البيولوجي. ويمُكِن أن يبدأ صناع القرار بتشريع قوانين تحظر على شركات تركيب الأحماض النووية أن تُرسِل أحماض الجراثيم الخطيرة إلى مُشترٍ غير مُرخَّص. وستحتاج الحكومات للعمل مع تلك الشركات لتصنيف الأحماض ذات الخطورة، ولعلها تلجأ إلى المسح الدوري للمطارات والصرف الصحي كي تلتقط أي إشارة على وجود أنواع جديدة من الجراثيم.

في بعض الأحيان سيتحتَّم على المجتمع أن يستخدم الذكاء الاصطناعي ليحمي نفسه من المخاطر. على سبيل المثال، ستحتاج شركات تركيب الأحماض النووية غالبا إلى أنظمة ذكاء اصطناعي للتعرُّف على الجراثيم المحتمل ظهورها في المستقبل، أو تلك التي يُمكِن أن يُخلِّقها نظام ذكي بنفسه. لكن استخدام الذكاء الاصطناعي للوقاية من أنظمة ذكية أخرى يبدو أمرا مخيفا، بالنظر إلى أنه يمنح سلطة كبيرة لأجهزة الحاسوب وصُنَّاعها. في النهاية، سيكون صعبا على المجتمعات البشرية أن تواكب مخاطر الذكاء الاصطناعي، لا سيَّما إن نجح العلماء في هدف تطوير أنظمة ذكية يضاهي ذكاؤها ذكاء البشر، وسيكون لزاما على الباحثين في هذا المجال أن يتأكدوا من استقامة نماذجهم مع قيم المجتمعات ومصالحها، وعلى الحكومات أن تلعب دورها في التشريع وتأسيس الهيئات المنوطة بالرقابة لمنع النماذج الخطيرة.

قد يرى مطوِّرو الذكاء الاصطناعي في فكرة الضوابط الحكومية قيدا على مجالهم، إذ إن الضوابط الصارمة يُمكنها أن تجعل مسيرة الذكاء الاصطناعي أبطأ مما هي عليه. وكغيرها من الصناعات، فإن القواعد المُشدَّدة قد تخلق عوائق عن دخول ذلك السوق بسهولة، وتُقلِّل وتيرة الابتكار فيه، وتُركِّز التطوُّر في هذا المجال عند عدد صغير من شركات التكنولوجيا الكبرى المُهَيمنة بالفعل، بيد أن هناك قطاعات أخرى نجحت في إحراز تقدُّم هائل رغم خضوعها لقيود كثيرة، مثل الصناعات الدوائية والطاقة النووية.

في الأخير، يُمكن للحكومات أن تضمن مشاركة الشركات الصغيرة في مسيرة تطوُّر الذكاء الاصطناعي بمنحها حق استخدام الشرائح المتطورة للباحثين المسؤولين، ففي الولايات المتحدة مثلا، يُفكِّر الكونغرس في تأسيس “مَوْرِد وطني لبحوث الذكاء الاصطناعي”، وهو جهة فيدرالية تحوي البيانات وأدوات الحوسبة الذكية التي يُمكِن إتاحتها للأكاديميين. إن تطوُّر الذكاء الاصطناعي أمر لا مفر منه، ويحتاج الناس في شتى أنحاء العالم إلى الاستعداد لما يُمكن أن تفعله تلك التكنولوجيا بمجتمعاتهم وللعالم من حولهم، وحينها فقط يمكننا جني الثمار الهائلة التي يعِدنا بها عصر الذكاء الاصطناعي.

___________________________________________________

ترجمة: ماجدة معروف

هذا التقرير مترجم عن Foreign Affairs ولا يعبر بالضرورة عن موقع ميدان.

المصدر: وكالات

Share.

محرره صحفية من ريف حلب سوريا خريجة اعلام من جامعة دمشق 2016

Leave A Reply