شكرا لقرائتكم خبر عن الدولار الأسترالي يرتفع بعد بيانات اقتصادية قوية تشير إلى احتمال رفع الفائدة والان مع بالتفاصيل
دبي - بسام راشد - أخبار الفوركس اليوم «الذكاء الاصطناعي العام موجود هنا… الآن». بهذه العبارة أعلنت شركة سيكويا كابيتال هذا الأسبوع — إحدى أعرق شركات رأس المال المغامر في وادي السيليكون وأحد كبار المستثمرين في OpenAI — أننا تجاوزنا عتبة الذكاء الاصطناعي العام (AGI).
وجاء في منشور الشركة، وبخط عريض، أنها «غير مثقلة بالتفاصيل على الإطلاق». وعندما تتحدث سيكويا، يُنصت عالم التكنولوجيا. وقد هيمن هذا الطرح على نقاشات مجتمع مطوري الذكاء الاصطناعي لأيام متتالية.
وبصفتي مطورًا، ومستثمر رأس مال مغامر، وعالمًا في الذكاء الاصطناعي في الوقت نفسه، أرى أن هذا الإعلان مفيد للغاية من ناحية، وخطير للغاية من ناحية أخرى.
ما هو المفيد في طرح سيكويا؟
تقدم سيكويا تعريفًا عمليًا للذكاء الاصطناعي العام، يتمثل في «القدرة على اكتشاف الحلول. لا أكثر». ووفق هذا الطرح، بات الذكاء الاصطناعي قادرًا اليوم على التنقيب في كمّ هائل من المعلومات، وتحديد مسار عمل، ثم التنفيذ. وتتمثل النقلة الأساسية — بحسب سيكويا — في انتقال الذكاء الاصطناعي من «التحدث» إلى «القيام بالفعل».
وتشير الشركة إلى أمثلة بعينها، فتقول إن منصات مثل Harvey وLegora «تعمل كمساعدين قانونيين»، وإن Juicebox «تعمل كمُجنِّد»، وإن خدمة Deep Consult التابعة لـOpenEvidence «تعمل كخبير متخصص». وهذه توصيفات حرفية، ورغم تشككي في هذا الإطار المفاهيمي، فسأعود إليه لاحقًا.
ما تفعله سيكويا هنا هو تحدي المطورين بشكل مباشر، وهذا أمر مهم. فأنظمة الذكاء الاصطناعي باتت قادرة بالفعل على مراجعة العقود بندًا بندًا، والتواصل الحقيقي مع العملاء المحتملين في الوقت الراهن. وهو تذكير بضرورة التفكير على نطاق أوسع بشأن ما أصبح ممكنًا، وبأن الأفق قد اتسع بشكل هائل خلال عام واحد فقط.
وقد أرسلت هذا المنشور إلى شركائي المؤسسين، لا بهدف الخوض في الجدل الفلسفي، بل لدفعنا إلى إعادة التفكير في إطار «التنفيذ مقابل الحديث» الذي طرحته سيكويا. نحن بدورنا بحاجة إلى الارتقاء إلى مستوى هذا التحدي.
لكن… لماذا يُعد وصف هذه الأنظمة بأنها AGI أمرًا خطيرًا؟
إطلاق وصف «الذكاء الاصطناعي العام» على هذه الأنظمة يسبب ضررًا بالغًا، سواء لمصداقية ثورة الذكاء الاصطناعي أو لسلامة نشر هذه التقنيات. فهو يطمس حقيقة ما تستطيع «وكلاء الذكاء الاصطناعي» فعله اليوم — وهم بالتأكيد ليسوا ذكاءً فائقًا عامًا — ولا يقدم أي إرشادات حول كيفية تفاعل البشر معهم (والإجابة المختصرة: لا تثقوا بهم ثقة عمياء).
وفيما يلي ثلاثة أمثلة تكشف حدود هذه الأنظمة بوضوح.
أولًا: أنظمة الذكاء الاصطناعي تعجز عن التعامل مع الحالات الخارجة عن نطاق التدريب
تناولت هذا الأمر في مقال سابق، لكن أزمة غرينلاند تمثل مثالًا حيًا ومتطورًا. فقد اختبرت كيف يمكن لأدوات الذكاء الاصطناعي التوليدي، مثل ChatGPT 5.2 مع تفعيل أقصى أوضاع «التفكير والبحث»، أن تحلل هذا الحدث الجيوسياسي المتسارع. هل يمكن لهذه الأنظمة، التي يُزعم أنها AGI، أن تساعدني على فهم ما يحدث؟
الجواب: لم تتمكن حتى من تصور أن ما يحدث أمر ممكن.
عرضت لقطات من صفحة ويكيبيديا التي توثق الأزمة، فجميع النماذج أخبرتني أن القصة مختلقة، «هراء»، ومستحيلة. وعندما واصلت الضغط، مستشهدًا بمصادر إخبارية حقيقية، واصل ChatGPT مطالبتي بـ«الهدوء»، مصرًا على أن «هذه ليست أزمة حقيقية».
هذه النماذج متشبثة إلى حد بعيد بالأطر التقليدية لتحالف الغرب، إلى درجة أنها تعجز عن إنتاج سياق يتناقض مع بيانات تدريبها، حتى عند مواجهتها بمصادر أولية. وعندما تخرج الوقائع عن نطاق توزيع البيانات التي تدربت عليها، يفشل «تفكير» الذكاء الاصطناعي: فهو يضلل المستخدم بدلًا من رفع مستوى الشك، ويرفض التواضع المعرفي، ويواصل «الاستدلال» حتى وهو مخطئ. وإذا كان صناع السياسات أو السياسيون يعتمدون على هذه الأدوات لفهم ما يجري في غرينلاند الآن، فذلك يشكل خطرًا حقيقيًا.
ثانيًا: أنظمة الذكاء الاصطناعي تعكس معتقدات من قاموا ببنائها
أكدت دراسة نشرتها مجلة «نيتشر» قبل أسبوعين هذا الأمر بشكل واضح. فقد وجد الباحثون أن النماذج اللغوية الكبرى تعكس الأيديولوجيا السياسية لمطوريها. فالنماذج الصينية كانت شديدة الإيجابية تجاه الصين، في حين أظهرت النماذج الغربية موقفًا سلبيًا بوضوح.
وحتى داخل النماذج الغربية نفسها، يظهر التحيز بجلاء. فقد أظهر نموذج Grok التابع لشركة xAI التي يملكها إيلون ماسك تحيزًا سلبيًا تجاه الاتحاد الأوروبي والتعددية الثقافية، بما يعكس أجندة يمينية، بينما جاء نموذج Gemini من غوغل — الذي يُنظر إليه على أنه أكثر ليبرالية — أكثر إيجابية تجاه كليهما.
بات مجتمع الذكاء الاصطناعي اليوم يتعامل مع هذه الحقيقة كأمر مسلم به: النماذج اللغوية تعكس أيديولوجيا المختبرات التي طورتها. فكيف يمكن، إذن، الوثوق في أن وكيلًا ذكيًا يمتلك «صفحة بيضاء» تمكّنه من «اكتشاف الحلول» بشكل محايد، لا سيما عندما يتعين عليه تحليل بيانات ضخمة ومعقدة؟
إن الادعاء بوجود AGI يفترض الحياد — أو يفترض ذلك على الأقل — بينما تشير الأدلة إلى عكس ذلك تمامًا.
ثالثًا: الأنظمة الحتمية مقابل الأنظمة غير الحتمية
الذكاء الاصطناعي التوليدي بطبيعته غير حتمي. فالإدخال نفسه قد ينتج مخرجات مختلفة قليلًا أو مختلفة جذريًا.
يدرك البشر بالفطرة ما ينبغي أن يكون ثابتًا وما يمكن أن يكون إبداعيًا. فمقاس القميص عند الشراء عبر الإنترنت مسألة حتمية، بينما اختيار النقشة أو اللون مسألة ذوقية. حتى أحدث وأقوى النماذج لا تزال تخلط بين هذين النمطين باستمرار. وقد شاهدنا جميعًا كيف يتعامل الذكاء الاصطناعي التوليدي مع حقائق حتمية كما لو كانت افتراضات إبداعية.
وهذا يكشف فجوة خطيرة في ما يُعرف بـ«ما وراء الإدراك» — أي الوعي بعملية التفكير ذاتها. ومن دون القدرة على التمييز بين ما هو ثابت وما هو توليدي، لا يستطيع الذكاء الاصطناعي «اكتشاف الحلول» بشكل موثوق.
فماذا ينبغي أن نفعل؟
لدينا أدوات واضحة. أولًا، اختيار حالات استخدام ضيقة ومحددة، تقل فيها احتمالات التحيز أو الوقوع في سيناريوهات خارجة عن نطاق التدريب. ثانيًا، ضمان تزويد الذكاء الاصطناعي بسياق كامل ومخصص ومرتبط بالواقع، بدل ترك الوكلاء يعملون بلا مرجعية. وكما كتبت سابقًا، فإن السياق هو الملك عندما يتعلق الأمر بوكلاء الذكاء الاصطناعي، وهو ما يساعد أيضًا على توضيح ما ينبغي أن يكون حتميًا وما يمكن أن يكون توليديًا. ثالثًا، نشر مرشحات قائمة على القواعد ووكلاء مراقبة يستدعون المراجعة البشرية عند الضرورة.
وأخيرًا، يجب الإقرار بحقيقة أساسية: النماذج اللغوية الكبرى ستعكس دائمًا بيانات تدريبها وأيديولوجيا مطوريها. هذه النماذج — ومطوروها — فاعلون سياسيون، سواء أرادوا ذلك أم لا. لذلك، ينبغي أن يكون الذكاء الاصطناعي خاضعًا لسيطرة المستخدم البشري الفرد، لا نظامًا يُفرض على البشر. كما أن تتبع المصدر والمسؤولية أمر جوهري — أي القدرة على إرجاع كل قرار إلى إنسان، مهما تعددت المراحل الوسيطة — لضمان الحوكمة والسلامة.
في نهاية المطاف، لا يهمني كثيرًا الاسم الذي نطلقه على هذه التقنيات — المهم فقط ألا نسميها AGI. ما نمتلكه اليوم هو ذكاء اصطناعي قوي على نحو غير مسبوق، قادر على التحدث والتنفيذ بكفاءة داخل أطر ضيقة ومحددة جيدًا. ومع وجود ضوابط صارمة، ومرشحات حتمية، وآليات إشراك الإنسان في الحلقة، يمكن لهذه الأنظمة أن تضيف تريليونات الدولارات إلى الاقتصاد العالمي.
سمّوه «الذكاء الاصطناعي الضيق». فهذه هي الفرصة التي تساوي تريليونات الدولارات المتاحة اليوم.
