تخطي إلى المحتوى

الذكاء الاصطناعي في بيئة الأدوات المحدودة: كيف تبني القيمة حين لا تسمح الشركة إلا بـ Copilot

تقتصر كثير من الشركات على أداة ذكاء اصطناعي واحدة — مثل Copilot — بسبب سياسات تكنولوجيا المعلومات أو اتفاقيات الترخيص. أساعد في بناء استراتيجية AI تحقق قيمة حقيقية حتى في ظل هذه القيود.

أطروحتي المبنية على المحادثات والخبرة والعمل مع العملاء

في كثير من المؤسسات، لا يبدأ الحديث عن الذكاء الاصطناعي من سؤال "ماذا نريد أن نحقق؟"، بل من رسالة واضحة: "لديكم Copilot وهذا يكفي". يختار قسم تكنولوجيا المعلومات أداة واحدة — غالباً Microsoft Copilot — ويُغلق الموضوع. على بقية المؤسسة أن تتكيف، بغض النظر عما إذا كانت هذه الأداة تناسب احتياجاتها الفعلية. من وجهة نظري، هذا أحد أكثر القيود شيوعاً وأقلها نقاشاً التي تواجهها الشركات اليوم وهي تحاول تطبيق الذكاء الاصطناعي بشكل معقول.

ماذا يعني هذا عملياً

عملياً يبدو الأمر كالتالي: يوقّع قسم تكنولوجيا المعلومات عقداً مؤسسياً مع Microsoft. يصل Copilot إلى المؤسسة بوصفه أداة الذكاء الاصطناعي الوحيدة المعتمدة. أما الفرق التي تحتاج إلى شيء مختلف — نموذج أفضل لتحليل المستندات، أو سياق أطول، أو نموذج مفتوح المصدر لمهام متخصصة — فلا تملك مساراً رسمياً للحصول عليه.

النتيجة؟ إحباط، وذكاء اصطناعي ظلي (shadow AI)، وفجوة متنامية بين ما تُطبّقه المؤسسة رسمياً وما يحتاجه الموظفون فعلاً. يبدأ العاملون باستخدام Claude وChatGPT والنماذج المحلية سراً، لأن الأداة الرسمية لا تحل مشكلاتهم. وتفقد الشركة السيطرة على كيفية استخدام الذكاء الاصطناعي — وهو عكس ما كان من المفترض أن تضمنه المركزية تماماً.

هذه ليست مشكلة سوء نية من قسم تكنولوجيا المعلومات. إنها مشكلة غياب استراتيجية AI تراعي الاحتياجات الحقيقية للمؤسسة، وليس فقط شروط الترخيص.

لماذا هذه مشكلة الآن تحديداً

قبل عامين، كان الاقتصار على أداة واحدة قراراً منطقياً — كانت السوق ناشئة، والنماذج غير متوقعة، والمؤسسات بلا حوكمة. اليوم الوضع مختلف. تنوعت النماذج. Claude يتفوق في التعامل مع المستندات الطويلة والتعليمات المفصلة. GPT-4 يمتلك منظومة تكامل أوسع. النماذج مفتوحة المصدر تمنح السيطرة على البيانات. Copilot مريح ضمن منظومة Microsoft، لكنه ليس الجواب الشامل لكل حالة استخدام.

المشكلة أن قرار تقييد حزمة الأدوات اتُّخذ غالباً في لحظة مختلفة، وسياق مختلف، وبدون مشاركة الأشخاص الذين يحاولون اليوم بناء القيمة من الذكاء الاصطناعي. وتغيير هذا القرار يحتاج إلى حجج وحوكمة واستراتيجية — لا مجرد إحباط.

ما الذي يجدي نفعاً فعلاً

ما يجدي نفعاً فعلاً هو التعامل مع القيد الأداتي لا بوصفه عائقاً، بل بوصفه سياقاً يجب العمل فيه بذكاء أكبر.

أولاً، حتى بأداة واحدة يمكن تحقيق الكثير — إذا أُحسن اختيار حالات الاستخدام. Copilot فعّال في العمل مع مستندات Office، وأتمتة المهام الروتينية، وتلخيص الاجتماعات. المفتاح هو عدم تحميله ما لم يُصمَّم من أجله.

ثانياً، الحجة المُعَدّة جيداً لتوسيع حزمة الأدوات — المبنية على حالات استخدام محددة، ومخاطر الذكاء الاصطناعي الظلي، وتحليل التكاليف — قادرة على تغيير قرار قسم تكنولوجيا المعلومات. رأيت ذلك مراراً. لكن هذا يتطلب استراتيجية، لا شكاوى.

ثالثاً، الحوكمة هنا أمر جوهري. إذا كانت لدى الشركة قواعد واضحة لاستخدام الذكاء الاصطناعي — من يقرر، وما البيانات التي يمكن معالجتها، وكيف يُراقب الاستخدام — فإن توسيع الحزمة بنموذج ثانٍ أو ثالث يصبح قراراً تشغيلياً، لا ثورة.

كيف أعمل مع العملاء على هذا الأمر

أبدأ من فهم القيود الحقيقية: اتفاقية الترخيص، سياسة تكنولوجيا المعلومات، الامتثال، غياب الحوكمة، أو مجرد الاعتياد. ثم نُقيّم معاً أين تكفي الأداة الحالية فعلاً، وأين تفقد المؤسسة قيمة بسبب قيد مصطنع.

بناءً على ذلك، أشارك في صياغة استراتيجية تعمل في اتجاهين في آن واحد. من جهة، نُعظّم القيمة مما هو متاح بالفعل. ومن جهة أخرى، نبني المبررات والحوكمة التي تسمح بتوسيع حزمة الأدوات بأمان حين تكون المؤسسة جاهزة لذلك.

المهم أنني لا أتوقف عند التوصيات. أتحمل مسؤولية مشتركة في التنفيذ. أكون حاضراً أثناء التطبيق، وفي المحادثات مع قسم تكنولوجيا المعلومات، وفي المفاوضات مع المزودين، وعند اتخاذ القرارات الصعبة. إنه عمل مشترك — وليس عرضاً تقديمياً تبقى بعده وحيداً مع ملف PowerPoint.

رسالتي إلى مسؤولي التكنولوجيا والمعلومات وقادة الابتكار

لا تسألوا: "كيف نتجاوز قيود تكنولوجيا المعلومات؟". اسألوا بالأحرى: "كيف نبني استراتيجية AI تحقق قيمة في الظروف الحالية وتفتح في الوقت نفسه الطريق نحو ظروف أفضل؟". فالقيد الأداتي ليس نهاية الحوار حول الذكاء الاصطناعي. إنه نقطة انطلاقه.

الأسئلة الشائعة

هل يكفي Copilot كأداة ذكاء اصطناعي وحيدة في الشركة؟

لبعض حالات الاستخدام — نعم. ولكثير منها — لا. Copilot قوي ضمن منظومة Microsoft 365، لكن لديه محدوديات في تحليل المستندات الطويلة، والعمل مع البيانات الخاصة، والمهام المتخصصة. ينبغي أن تحدد الاستراتيجية أين يكفي وأين لا يكفي.

كيف أُقنع قسم تكنولوجيا المعلومات بتوسيع حزمة أدوات AI؟

ليس بحجج من نوع "الآخرون لديهم أفضل"، بل بحالات استخدام محددة، وتحليل مخاطر الذكاء الاصطناعي الظلي، ومقترح حوكمة. قسم تكنولوجيا المعلومات يحتاج إلى الشعور بالسيطرة — والاستراتيجية المصمَّمة جيداً تمنحه ذلك.

هل الذكاء الاصطناعي الظلي مشكلة جدية؟

نعم. إذا كان الموظفون يستخدمون أدوات ذكاء اصطناعي غير معتمدة، تفقد الشركة السيطرة على البيانات، ولا تملك رؤية لجودة القرارات المدعومة بالذكاء الاصطناعي، وتتعرض لمخاطر الامتثال. كلما طال أمد القيد بدون بديل، تفاقم الذكاء الاصطناعي الظلي.

هل هذه الخدمة خاصة بالشركات التي تستخدم Copilot فقط؟

لا. المشكلة تخص كل مؤسسة اقتصرت على أداة ذكاء اصطناعي واحدة — سواء كانت Copilot أو حلاً من Google أو AWS أو مزود آخر. الآلية واحدة: أداة واحدة، احتياجات متعددة، وإحباط متزايد.

هل تساعد أيضاً في التنفيذ وليس فقط في الاستراتيجية؟

نعم. أشارك في صياغة الاستراتيجية مع العميل وأتحمل مسؤولية مشتركة في تنفيذها. وهذا يعني أنني حاضر في مرحلة التطبيق، وفي المحادثات مع تكنولوجيا المعلومات والمزودين، وعند اتخاذ القرارات أثناء المسيرة.

دعوة للتواصل

عزيزي القارئ/عزيزتي القارئة، إذا كانت شركتك في وضع يقتصر فيه الذكاء الاصطناعي على أداة واحدة وأنت ترى أن ذلك لا يكفي — أدعوك للحديث. ليس لانتقاد القرارات الحالية، بل لنجد معاً طريقة لبناء القيمة في الظروف المتاحة اليوم، وللتوسع التدريجي في الإمكانات.

للمراجعة الموضوعية

  • هل نذكر Microsoft Copilot بالاسم على الصفحة، أم نتحدث بشكل أعم عن "الاقتصار على أداة واحدة"؟
  • هل نريد إضافة مثال لحالة استخدام محددة لا يكفي فيها Copilot (مثل تحليل العقود الطويلة، أو RAG على البيانات الخاصة)؟
  • هل ينبغي توسيع قسم الذكاء الاصطناعي الظلي لإبراز مخاطر الامتثال بشكل أقوى؟
  • هل نضيف إشارة إلى قانون الذكاء الاصطناعي الأوروبي (AI Act) في سياق الرقابة على أدوات AI في المؤسسة؟

Chcesz porozmawiać o tym, jak to wygląda w Twojej organizacji?

احجز مكالمة حول استراتيجية الذكاء الاصطناعي+48 516 210 516