بسم الله الرحمن الرحيم

مقدمة

سألني من يصغرني سنّاً قبل فترة عن استعمال ChatGPT للمساعدة في البرمجة، ما ذكّرني بقاعدةٍ عامة أتّبعها شخصياً وأؤمن بها، وهي التشكيك بالتقنية. بغض النظر عن ChatGPT، والذي لا يمكنك الاعتماد عليه في البرمجة حتى لو حاول الإنترنت اقناعك بذلك، كل تقنية متحيّزة بطبيعتها، تحيّزٌ أحياناً ما يكون خبيثاً، ولأنني أحب تذكير الناس بهذا سأخصص هذه التدوينة للكلام عن هذا الموضوع.

للمعلومية فأنا لا أزعم السبق في هذا الطرح، فعنوان التدوينة مأخوذ من عنوان ورقة إنجليزية اسمها “On Trusting Trust” أو “في الثقة بالثقة” كتبها كِن تومسُن - Ken Thmpson في ذات الموضوع تقريباً، ولو كان كل ما أنجزته هذه التدوينة هو جعلك تقرأ الورقة تلك لكَفَتْ.

الأخطاء البرمجية، أحصنة طروادة، والتحيّز

من المقولات الطريفة عند الألمان قولهم: “لا تصدق إحصائيةً لم تزوّرها بنفسك”، وهذه المحاضرة قبل بضعة سنين ذات العنوان المشابه “لا تصدق صورةً رقمية (scan) لم تزوّرها بنفسك” هي أحد أفضل الشواهد على كلامي اليوم. المحاضرة الممتعة هذه ليست مترجمةً للأسف، بيد أن القصة نفسها انتشرت كالنار في الهشيم ويمكن العثور على معلوماتٍ عنها بالإنجليزية بسهولة. مختصرها هو أن طابعات زيروكس - Xerox، تلك الطابعات التي تجدها في المكاتب الحكومية ومكاتب الشركات لطباعة وتصوير المستندات، كانت تغيّر أرقام المستندات التي تصورّها، جاعلةً النسخة الرقمية من المستند مختلفةً عن الأصلية.

قد تقول أن هذا بالتأكيد خطأ ولا يمكن أن شركة كهذه قد تزوّر المستندات عمداً، ونعم، في هذه الحالة يبدو أن طابعات زيروكس كانت تستعمل خوارزميات ضغط معلومات (compression algorithms) غشيمةً بعض الشيء. بالمثل لم تنوِ غوغل أن يُخطئ نموذج الذكاء الاصطناعي خاصتها Bard خطأً كلّف الشركة مليارات الدولارات، إلا أن من السذاجة طرد هذا على كل منتجات غوغل، بدايةً بمحرك البحث. هاك هذه التجربة البسيطة: اذهب إلى بحث غوغل واكتب “The case for banning marijuana” أي “الحجج المؤيّدة لحظر الماريوانا”. لو كانت نتائجك تشبه نتائجي فلن تجد أي رابطٍ يقول بحظر الماريوانا، بل سيقدم لك غوغل قائمةً طويلةً تقيم الحجة للسماح بالماريوانا، وهو عكس ما بحثت عنه.

والطلب المتزايد على سبلٍ أسهل وأسرع للحصول على المعلومات يزيد من هذه المشكلة سوءاً بفسح المجال لتطبيقاتٍ مثل ChatGPT، الذي لا يتكلف أصلاً توفير روابطٍ ومصادرٍ للمستخدم ويكتفي بإجابةٍ مباشرة واحدة. غوغل كان لديها محاولاتٍ في تقديم الأجوبة المباشرة والنتيجة كما تتوقع. بعض الباحثين يسمّون هذا “معضلة الجواب المباشر.”

الأخطاء البرمجية تحدث سهواً في تصميم البرنامج. أمّا البرنامج الذي يتعمّد التصرف الخطأ عن خبث له اسمٌ آخر، واسمه “حصان طروادة” (trojan horse). التقنيات التي تقوم على ربطنا بالمعلومات عن العالم من حولنا لها قدرةٌ قوية على التأثير بآرائنا ونظرتنا لهذا العالم، ومغبّة التقليل من هذه القدرة خطيرة إذ أنّ هذه التقنيات تستعمل لهكذا أغراض منذ زمن.

الأمّيّة الرقمية

في كتابه “برْمِج أو تَبرمَج” (Program or be Programmed) يصف دوغلاس روشكوف المسألة هكذا (ترجمتي بتصرّف):

أنت كالآنسة الصغيرة في سيارة، سيارة بلا نوافذ، يقودها سائقها حيث شاء. إن قال لك السائق بأن لا بقالة في البلد إلا واحدة فلا تملك إلا تصديقه. كلما طالت حياتك هذه زاد اعتمادك على السائق، وزادت رغبة السائق باستغلال الأفضلية التي لديه.

وعلى أنّني أجد هذا الوصف ملائماً، وعلى مدحي للكتاب، لا أفهم تفكير الكاتب عندما اقترح الجهل بالبرمجة، أو ما يسمّيه بعضهم “الأمّيّة الرقمية”، كأصلٍ لهذه المشكلة. في الواقع، المبرمجون هم أكثر الناس درايةً بعجزهم.

ما أثبته كِن تومسُن سنة 1984م في ورقته المذكورة بادئ التدوينة هو قدرته، نظريّاً، على تضمين أي شيفرة (code) خبيثة في أي برنامج بلغة سي C باستعمال مترجم سي (C Compiler) بطريقة يستحيل اكتشافها، خاتماً ورقته تلك بهذه النتيجة (ترجمتي بتصرّف):

لا يمكنك الوثوق بشيفرة لم تكتبها بنفسك بالكامل. (بالأخص شيفرة من شركات تُوظّف أشخاصاً مثلي). لا قدر من التمحيص والتدقيق للشيفرة الأصلية سيحميك من استعمال شيفرةٍ غير موثوقة، مهما فعلت.

هذا مع العلم بأن لا وقت لتمحيص كل الشيفرة الأصلية في زماننا. أي مشروعٍ صغير سيحوي العديد والعديد من سطور الشيفرات المكتوبة بأيدي العديد والعديد من الأشخاص والمؤسسات، سواءً مفتوحة المصدر أو التجارية. أفضلية المبرمج الوحيدة هنا هو إدراكه لعجزه عن إيجاد حل.

الخلاصة

لم أنوِ بهذه التدوينة إقناعك بالاستغناء عن الأجهزة الرقمية، أو (أسوأ) الاستسلام لها. لا أعتقد بأن هذا اختيار بين اثنين لا ثالث لهما، بل أعتقد بالقدرة على وجود وسطٍ بينهما، وهو استعمال أي أداةٍ مع الدراية بمخاطرها ومشاكلها. هل التقنيات الرقمية وبالأخص الذكاء الاصطناعي ضرورية ومفيدة؟ نعم. هل يمكنك الوثوق بها؟ لا.

عندما أفكّر في مخاطر الذكاء الاصطناعي على مجتمعاتنا لا أفكر بالوظائف التي ستختفي، أرى أن هذا من النتائج الطبيعية لمرور الزمن وتغيّر الحياة وله نظائر تاريخية. ما يقلقني هو، وآمل أن تكون هذه التدوينة ساعدت على توضيح ذلك، قدرة الذكاء الاصطناعي على خداعنا بطرقٍ غير ممكنة من قبل. أجد احتمالية تسليم الناس لتفكيرها، وقراراتها، ومصادرها المعرفية للذكاء الاصطناعي جاهلين بتحيّزاته الخبيثة أدعى بكثيرٍ للقلق.

أعتقد بأن بعضاً من الوعي والشك ضروريّان في تعاملنا مع التقنيات الرقمية.