مقدمة

قبل عدة أيام نشرت شركة الذكاء الاصطناعي الصينية ديب سيك - Deepseek نموذجاً لغوياً اسمه R1 ( Citation: , (). DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning. Retrieved from https://arxiv.org/abs/2501.12948 ) ، ميزته هي قدرته على “التفكير” في المسألة قبل الإجابة، على شاكلة نموذج o1 من أوبن آي - OpenAI. تدريب الذكاء الاصطناعي على التفكير هو التوجه الجديد لتحسين هذه النماذج، والأمر أصعب مما يبدو، فالبيانات الموجودة لتدريب هذه النماذج نادراً ما تحوي على التبرير أو التفكير، والإنسان غالباً يفكّر في باطنه لا بلسانه أو على ورقة وقلم. لهذا، ومع أن o1 عمره نصف عام تقريباً، محاولات الشركات الأخرى في تطوير نموذجٍ مثله لم تنجح، حتى جاء R1. ربما رأيت الضجة على تويتر، أو رأيت مؤشرات الأسهم حمراء ( Citation: , (). Twitter, @KobeissiLetter. Retrieved from https://x.com/KobeissiLetter/status/1883709301258068240 ) ، أو رأيت التطبيق يتصدر على متاجر التطبيقات ( Citation: , (). Twitter, @unusual_whales. Retrieved from https://x.com/unusual_whales/status/1883687583798132993 ) ، وتتساءل لماذا هذا الحدث بهذه الأهمية؟ سأحاول الإجابة على هذا السؤال هنا دون الخوض في التفاصيل التقنية، مع وضع مصادر لأهل الاختصاص ممّن تهمّه تلك التفاصيل.

صناعة الذكاء الاصطناعي الآن

النظر على حال صناعة الذكاء الاصطناعي سيوطّئ لنا فهم ما حدث هذا الأسبوع. وصلت قيمة إنفيديا العام الماضي ما يزيد على ٣ تريليونات دولار، وغدت بذلك أثمن شركةً في العالم. هذا النمو السريع كان وقوده شيئاً واحداً فقط: الطلب على كروت نفيديا لأنها الأنسب لتدريب نماذج الذكاء الاصطناعي. مثال من مبيعات نفيديا من كرت H100، والذي يبلغ سعره ٢٥ ألف دولار، على ٤ شركات فقط في ٢٠٢٤:

  • مايكروسوفت: ٤٥٠ ألف كرت، 11,250,000,000 دولار.
  • ميتا: ٣٥٠ ألف كرت، 8,750,000,000 دولار.
  • أمازون: ١٩٦ ألف كرت، 4,900,000,000 دولار.
  • غوغل: ١٦٩ ألف كرت، 4,225,000,000 دولار.

هذا من أربع شركات فقط في عام واحد! نهم الذكاء الاصطناعي للطاقة الحسابية لا ينتهي، والفكرة السائدة لدى شركات الذكاء الاصطناعي هي أن من يملك الطاقة الحسابية الأعلى سيتغلب على منافسه. هذه حربٌ تبيع إنفيديا أسلحتها. الأمر لم يتوقف عند صناعة الذكاء الاصطناعي، فالاستثمارات الهائلة هذه ونمو إنفيديا الضخم كانا من الأسباب التي ساهمت في نمو الاقتصاد الأمريكي أكثر من غيره في السنتين الماضيتين، وربما من الأسباب في تجاوزه الركود الذي كان يتوقّعه كثيرون بعد كورونا. أضف إلى هذا البعد السياسي للذكاء الاصطناعي باعتباره من أهم التقنيات الحديثة في مختلف المجالات الاقتصادية والعسكرية، وسترى لماذا يعطى مجالٌ لـسام ألتمان رئيس أوبن آي للتحدث في يوم تنصيب ترمب رئيساً للولايات المتحدة، مع إعلان في اليوم ذاته عن مشروع Stargate ( Citation: , & al., , & (). Tech giants are putting $500bn into ‘Stargate’ to build up AI in US. BBC News. Retrieved from https://www.bbc.com/news/articles/cy4m84d2xz2o ) لاستثمار ٥٠٠ مليار دولار لتأمين التفوق الأمريكي في مجال الذكاء الاصطناعي، وستفهم أيضاً السبب في منع بيع المعالجات (الكروت) الحديثة لأي شركة صينية منذ ٢٠٢٢.

وبعد كل هذا، تأتي شركة صينية مغمورة اسمها ديب سيك لتصدر نموذجاً اسمه R1، يعادل مستوى أفضل نموذج أمريكي o1، مفتوح المصدر (أي يمكن لأي أحد تحميله واستعماله كيف يشاء)، متوفر مجاناً بلا حدود على تطبيقهم، وبتكلفة ٥.٥ مليون دولار تقريباً. للمقارنة، ميتا تتكلف أكثر من ٥٠٠ مليون على تدريب نموذج واحد، أي ١٠٠ ضعف، بل لدى ميتا خمسة موظفين في قسم الذكاء الاصطناعي أجرهم السنوى أكثر من ٥ ملايين! هذه التكلفة المنخفضة كانت نظراً لاستعمالهم ٢٠٤٨ كرت فقط في تدريب النموذج، بدلاً من مئات الألوف التي نراها لدى غيرهم. ربما اتّضحت لك معالم المشكلة الأمريكية الآن: إن كنت تستطيع تدريب أفضل نموذج بعدة ملايين، ما تبرير هدر هذه المليارات؟ وإذا كان يكفيك بضع آلاف كروت لتدريب أفضل نموذج، لماذا قيمة إنفيديا ٣ تريلوينات؟ كيف ستعوض استثماراتك (٥٠٠ مليار Stargate مثلاً) إن كان بإمكان شركةٍ في الصين تطوير نموذجٍ مماثل ونشره مجاناً لكل الناس؟ لماذا تطلب أوبن آي ٢٠٠ دولار (حوالي ٨٠٠ ريال) في الشهر لاستعمال نموذجٍ توفّره شركة صينية مجاناً؟! وغير هذا الكثير.

نتائج R1 في عدة من أصعب اختبارات الذكاء الاصطناعي في الرياضيات، البرمجة والمنطق والمعلومات مقارنةً بأفضل النماذج حالياً.

عواطف العديدين من موظفي وعلماء الذكاء الاصطناعي في أمريكا، أو ربما مصالحهم الشخصية، زادت حدة الجدل الحاصل حول إطلاق هذا النموذج، لدرجةٍ دفعت بعضهم إلى تعليقات تصل حدّ الضحك من غرابتها. منهم من يقول أن ديب سيك تكذب، ولديهم مئات الألوف من الكروت، ومنهم من يقول أن هذا النموذج مؤامرة من حكومة الصين لتدمير سوق الذكاء الاصطناعي الأمريكي!

من هم ديب سيك

من يعلم، ربما تملك ديب سيك الآلاف من أفضل كروت إنفيديا، من الصعب الجزم بعكس ذلك، إلّا أنني أرى هذا الاحتمال بعيداً جداً، بل موغلاً في البعد. السبب الأول واضح، وهو العقوبات الصعبة. العقوبات، وإن كانت لا تمنع وصول الكروت عن الصين، لكنها ترفع سعرها بشكلٍ ملحوظ، وهي إذاً عقبةٌ كبيرة خاصة لشركة لا تملك أموال مايكروسوفت وغوغل. السبب الثاني هو خبرة موظفي ديب سيك التي تجعل إنجازهم معقولاً. الشركة الأم لـديب سيك هي شركة تداول خوارزمي تدير محفظة بمليارات الدولارات، أي أن خبرتها في الذكاء الاصطناعي محدودة، وهذا، كما قلت، يجعل الإنجاز معقولاً أكثر!

شركات التداول الخوارزمي تستعمل برامج حاسوبية تحلّل بيانات السوق بمعادلات رياضية معقدة للوصول إلى قرارات التداول باستعمال أموال الشركة، أي تستعمل برامج حاسوبية لإدارة الملايين أو المليارات. بالطبع، أسواق الأسهم تتغير في لمح البصر، والفرق بين اتخاذ قرارك هذه الثانية أو بعد دقيقة قد يكون خسارة أو ربح ملايين (خاصةً عند إدارة مبالغ ضخمة)، لهذا تمتلك هذه الشركات عادةً حواسيب ضخمة ويركّز موظّفوها على استعمال هذه الحواسيب بكفاءة. لا حسابات بلا داعي، وما تحتاج لحسابه احسبه أسرع ما يمكن. لديهم موظفون شغلهم الشاغل هو السرعة الحسابية عالية والكفاءة القصوى. هذه محاضرة من أحد موظفي شركة مشابهة اسمها Jane Street عن هذا الموضوع تحديداً: System Jitter and Where to Find It: A Whack-a-Mole Experience. ماذا كان الإنجاز الأهم لـديب سيك؟ نعم، الكفاءة. قد تستغرب كلامي إن لم تكن على دراية بحال شركات الذكاء الاصطناعي، إلا أن موظفي هذه الشركات عادةً كفاءتهم التقنية ضعيفة. أحد باحثي أوبن آي قد يستطيع تقديم فكرة نظرية فريدة، لكن غالباً لا يستطيع تطبيقها عملياً بنفسه، وإن استطاع فمن المستحيل أن يطبّقها بكفاءة عالية. هذا باختصار ليس من أولويّات هذه الشركات وليس جزءاً من ثقافة موظّفيها. الوسط الأكاديمي ضعيف تقنيّاً بطبيعته، وأحد دكاترة الذكاء الاصطناعي الذين درسوني سابقاً كان يقولها بصراحة: أنا لا أتقن البرمجة.

هذا من جانب، أما السبب الثالث والأهم لتصديق دعوى ديب سيك هو أنهم نشروا كل شيء بشفافية. هل تريد استعمال نموذجهم؟ يمكنك تحميله على هاتفك! هل تريد تدريب نموذجٍ مماثل؟ إليك الخطوات كلها في التقرير الذي نشروه مع النموذج. لقد نشروا ما فعلوه بالتفصيل في تقريرين يصل مجموع صفحاتهما إلى ٥٠ صفحة أو يزيد، وبالفعل بدأت مشاريع مثل Open R1 لاستنساخ النموذج من الصفر والتأكد من صحة كلامهم. نعم، ربما ديب سيك تكذب، والأمر لك أي الطرفين تصدّق، لكن عن نفسي سأثق بمن يعمل بصمت وينشر نتائجه بشفافية أكثر ممّن يملك أسهم إنفيديا أو يعمل لدى أوبن آي ولديه مصلحةٌ يخاف عليها.

خطة مشروع Open R1 لإعادة تدريب نموذج R1 من الصفر بناءً على التقرير الذي نشرته ديب سيك. تدريب النموذج يعتمد على تقنية التدريب بالتعزيز، وهي تقنية تعتمد على تحفيز النموذج بالمكافآت والعقوبات لتحسين أدائه.

ماذا بعد؟

إن كنت ستخرج من هذه المقالة بشيء، فاخرج بهاتين الفائدتين. الأولى أن تركّز على المضمون ولا تلتهي بالقشور. هذا أصعب ممّا تتخيل في بيئة ضجيجها عالٍ وملهياتها كثيرة مثل الذكاء الاصطناعي، وهذه طبيعة أي فقاعة. هل قلت فائدتين؟ بل ثلاثة. الثانية أن فقاعة الذكاء الاصطناعي ستنفجر، إن لم يكن هذه السنة ففي العامين القادمين. إنفيديا خسرت ٥٠٠ مليار من قيمتها أثناء كتابتي للمقال فقط إثر إعلان ديب سيك. كان جوهر آوبن آي وهدف إنشائها هو تطوير ذكاء اصطناعي مفتوح، ونشأت على أنّها شركة أبحاث غير ربحية تركيزها على البحث العلمي. أوبن آي الآن قشورٌ لما كانت عليه، فقد تركها كل مؤسسيها عدا واحداً أو اثنين، والأهم أن أفضل علمائها تركوها آخر سنتين بعد تصرفات المدير سام ألتمان، والقصة قديمة. لا أعتقد أن تبقى أوبن آي على طليعة شركات الذكاء الاصطناعي طويلاً.

الفائدة الثالثة تقنيّة، وهي أهمّية الفهم الرصين لدقائق المهنة، وديب سيك خير مثال. لا تكتفِ بالفهم السطحي لعملك واسْعَ للإتقان. الكثيرون يتساءلون عن مهنة المستقبل وهذه واحدة: ادرس كيف تعمل الحواسيب بالتفصيل، وتحديداً كروت الشاشة والمعالجات. ادرس تحسين البرامج والبرمجة المنخفضة (low level)، فمن الواضح أن الطلب على مطوري برامج للذكاء الاصطناعي ممّن يتقن التعامل مع كروت الشاشة بكفاءة سيتزايد. قراءة كتاب مثل Programming Massively Parallel Systems بداية جيدة.

المراجع

unusual whales (2025)
(). Twitter, @unusual_whales. Retrieved from https://x.com/unusual_whales/status/1883687583798132993
Kobeissi Letter (2025)
(). Twitter, @KobeissiLetter. Retrieved from https://x.com/KobeissiLetter/status/1883709301258068240
da Silva, Sherman & Rahman-Jones (2025)
, & (). Tech giants are putting $500bn into ‘Stargate’ to build up AI in US. BBC News. Retrieved from https://www.bbc.com/news/articles/cy4m84d2xz2o
DeepSeek-AI (2025)
(). DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning. Retrieved from https://arxiv.org/abs/2501.12948