ماذا بعد R1؟

مقدمة قبل عدة أيام نشرت شركة الذكاء الاصطناعي الصينية ديب سيك - Deepseek نموذجاً لغوياً اسمه R1 ( Citation: DeepSeek-AI, 2025 DeepSeek-AI (2025). DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning. Retrieved from https://arxiv.org/abs/2501.12948 ) ، ميزته هي قدرته على “التفكير” في المسألة قبل الإجابة، على شاكلة نموذج o1 من أوبن آي - OpenAI. تدريب الذكاء الاصطناعي على التفكير هو التوجه الجديد لتحسين هذه النماذج، والأمر أصعب مما يبدو، فالبيانات الموجودة لتدريب هذه النماذج نادراً ما تحوي على التبرير أو التفكير، والإنسان غالباً يفكّر في باطنه لا بلسانه أو على ورقة وقلم....

يناير 27, 2025 · بضع ثوان · 1408 كلمة
cover image

الفرق بين لغة الآلة ولغة البشر

بسم الله الرحمن الرحيم مقدمة شهدنا جميعاً في السنتين الماضيتين قدرة أدوات الذكاء الاصطناعي الحديثة على نفع البشر في مهام عديدة، أولها الكتابة. بين طالبٍ يطلب من تشاتجبت - ChatGPT كتابة واجبه عنه وباحث يستعمله لكتابة الأوراق العلمية، يتساءل البعض عن أمان استعمالها لهذه الأغراض، أي سهولة اكتشافها من عدمه. قد تظنّ اكتشافها هيّناً وأن الأدوات اللازمة لذلك موجودة، لكن سأخبرك شيئين عن هذه المسألة: الأول، أن الأدوات الموجودة دقّتها منخفضة، فيخفى عليها الكثير من النصوص التي أنتجها الذكاء الاصطناعي....

أبريل 6, 2024 · بضع ثوان · 1166 كلمة

الثقة بالتقنية

بسم الله الرحمن الرحيم مقدمة سألني من يصغرني سنّاً قبل فترة عن استعمال ChatGPT للمساعدة في البرمجة، ما ذكّرني بقاعدةٍ عامة أتّبعها شخصياً وأؤمن بها، وهي التشكيك بالتقنية. بغض النظر عن ChatGPT، والذي لا يمكنك الاعتماد عليه في البرمجة حتى لو حاول الإنترنت اقناعك بذلك، كل تقنية متحيّزة بطبيعتها، تحيّزٌ أحياناً ما يكون خبيثاً، ولأنني أحب تذكير الناس بهذا سأخصص هذه التدوينة للكلام عن هذا الموضوع. للمعلومية فأنا لا أزعم السبق في هذا الطرح، فعنوان التدوينة مأخوذ من عنوان ورقة إنجليزية اسمها “On Trusting Trust” أو “في الثقة بالثقة” كتبها كِن تومسُن - Ken Thmpson في ذات الموضوع تقريباً، ولو كان كل ما أنجزته هذه التدوينة هو جعلك تقرأ الورقة تلك لكَفَتْ....

يونيو 13, 2023 · بضع ثوان · 773 كلمة