يلصق موظف في مركز اتصال حكومي سؤال مواطن في روبوت محادثة. يعيد الروبوت إجابة واثقة ومفصّلة عن برنامج دعم — معايير الأهلية، والمواعيد النهائية، والمستندات المطلوبة. تبدو الإجابة مثالية، لكنها خاطئة تمامًا. فقد أُعيدت هيكلة برنامج الدعم قبل ستة أشهر، لكن الروبوت لا يملك وسيلة لمعرفة ذلك. لم يكن متصلًا أصلًا بوثائق السياسات الفعلية، بل اكتفى بتوليد ما بدا ردًا معقولًا.
هذه هي المشكلة الجوهرية لروبوتات المحادثة العامة في البيئات المهنية: فهي مصمَّمة لتبدو مفيدة، لا لتكون دقيقة.
بالنسبة للمؤسسات السعودية العاملة في قطاعات منظَّمة — كالجهات الحكومية، والرعاية الصحية، والخدمات المالية — فإن الفرق بين روبوت المحادثة ونظام استرجاع المعرفة ليس فرقًا نظريًا، بل هو الفرق بين خدمة موثوقة ومخاطرة مؤسسية.
ما الذي تفعله روبوتات المحادثة فعلًا؟
تُبنى معظم روبوتات المحادثة على نماذج لغوية كبيرة مُدرَّبة على بيانات عامة من الإنترنت. عندما تطرح عليها سؤالًا، تتنبأ بتسلسل الكلمات الأكثر احتمالًا بناءً على الأنماط التي تعلّمتها أثناء التدريب. لا تبحث عن حقائق، ولا تتحقق من مصادر، بل تولّد نصًا يشبه الإجابة الصحيحة سواء كان كذلك أم لا.
يعمل هذا بشكل مقبول في المحادثات العابرة، لكنه يفشل في أي سياق تكون فيه الدقة مهمة.
لا يعرف روبوت المحادثة سياسة الإجازات في مؤسستك، ولا يعرف أي الخدمات تستلزم موعدًا مسبقًا، ولا يعرف جدول الرسوم الحالي. ومع ذلك سيجيب عن كل هذه الأسئلة بثقة تامة، حتى حين تكون الإجابة ملفّقة.
في مصطلحات الذكاء الاصطناعي يُسمّى هذا "هلوسة". في مؤسستك يُسمّى مسؤولية قانونية.
كيف يختلف استرجاع المعرفة؟
يعمل نظام استرجاع المعرفة وفق مبدأ مختلف جذريًا. فبدلًا من توليد الإجابات من بيانات تدريب عامة، يبحث في وثائقك المعتمدة والمرفوعة — السياسات، والإجراءات، والأسئلة الشائعة، وأدلة الخدمات — ويبني الإجابات حصريًا من ذلك المحتوى.
الفرق هيكلي وليس شكليًا. لا يستطيع نظام استرجاع المعرفة الإجابة عن مواضيع لم توثّقها، لأنه لا يرتجل. إن وُجدت الإجابة في قاعدة المعرفة يجدها، وإن لم توجد يُبلغ المستخدم بعدم قدرته على المساعدة ويمكنه تصعيد الطلب إلى موظف بشري.
هذا القيد ميزة وليس عيبًا. فهو يعني أن كل إجابة قابلة للتتبّع والتحقق وخاضعة لحوكمة مؤسستك.
لماذا تشكّل الهلوسة خطرًا في القطاعات السعودية المنظَّمة؟
يتطور المشهد التنظيمي في المملكة العربية السعودية بسرعة. تقود رؤية 2030 التحوّل الرقمي في القطاعات الحكومية والصحية والمالية، لكن ذلك يرافقه توقعات متزايدة حول الدقة والمساءلة وحوكمة البيانات.
لنتأمل حجم المخاطر في ثلاثة قطاعات:
الجهات الحكومية. تنشر وزارة روبوت محادثة للتعامل مع استفسارات المواطنين. إذا اختلق الروبوت معلومات عن أهلية برنامج إسكان أو اشتراطات ترخيص، يتصرف المواطنون بناءً على معلومات خاطئة. النتيجة: إهدار للوقت، ومراجعون محبطون، وضرر بسمعة الوزارة. والأسوأ أنه لا يوجد سجل تدقيق يوضح مصدر الإجابة الخاطئة — لأنها لم تأتِ من مصدر أصلًا، بل وُلِّدت تلقائيًا.
المؤسسات الصحية. تستخدم مجموعة مستشفيات روبوت محادثة للإجابة عن أسئلة المرضى حول جدولة المواعيد أو التغطية التأمينية أو تعليمات الأدوية. إجابة مُهلوَسة عن التفاعلات الدوائية أو شروط التغطية لا تُحدث ارتباكًا فحسب، بل تخلق مخاطر حقيقية على سلامة المرضى. لا تستطيع المؤسسات الصحية العاملة وفق أنظمة المجلس الصحي السعودي تحمّل إجابات غير قابلة للتتبّع إلى محتوى سريري أو إداري معتمد.
الخدمات المالية. ينشر بنك روبوت محادثة لخدمة العملاء. يسأل عميل عن نسب الأرباح على منتج ادخاري أو شروط اتفاقية تمويل. يذكر الروبوت بثقة شروطًا لا تتطابق مع وثائق المنتج الفعلية. يواجه البنك الآن مشكلة امتثال محتملة مع أنظمة البنك المركزي السعودي (ساما) — وعميلًا اتخذ قرارًا ماليًا بناءً على معلومات غير صحيحة.
في كل حالة، المشكلة واحدة: لم يكن الروبوت متصلًا بالحقيقة، بل كان متصلًا بنموذج لغوي يولّد نصًا يبدو معقولًا.
كيف تعمل الإجابات المحوكمة؟
يحل نظام استرجاع المعرفة المحوكم هذه المشكلة بفرض سلسلة مساءلة من الوثيقة إلى الإجابة.
أنت تتحكم في المعرفة. ترفع الوثائق التي تحدد ما يمكن للنظام مناقشته — سياسات، وإجراءات، وأسئلة شائعة، وأوصاف خدمات — أيًا كان ما اعتمدته مؤسستك. لا شيء آخر يدخل النظام.
أنت تحدد قواعد السلوك. تضع الحدود لكيفية استجابة النظام. تتحكم في التحية والنبرة واللغة، والأهم — ما يحدث حين لا يجد النظام إجابة. يمكنك إلزامه بتصعيد الطلب إلى موظف بشري، أو تقييده من مناقشة مواضيع خارج قاعدة المعرفة. تضمن هذه القواعد أن يتصرف النظام كامتداد لمؤسستك، لا ككيان مستقل.
كل إجابة لها مصدر. حين يستجيب النظام، يستشهد بالوثيقة والقسم المحدد الذي وُجدت فيه الإجابة. يستطيع المشرفون التحقق من أي رد، ويستطيع فريق الامتثال تدقيق المسار. ويمكن لعملائك الوثوق بأن الإجابة تعكس سياساتكم الفعلية — وليس أفضل تخمينات نموذج لغوي.
هكذا تتعامل شاور مع استرجاع المعرفة. بُنيت المنصة على مبدأ أن الذكاء الاصطناعي المؤسسي يجب أن يكون خاضعًا للمساءلة، لا مبدعًا في الاختلاق.
قيمة الاستشهاد بالمصادر
الاستشهاد بالمصادر ليس ميزة شكلية، بل يغيّر ديناميكية الثقة بالكامل بين مؤسستك والأشخاص الذين تخدمهم.
حين يسأل مواطن بوابة حكومية عن متطلبات خدمة ويتلقى إجابة تستشهد بدليل الخدمة الرسمي، القسم 3.2 — يملك ذلك المواطن مرجعًا قابلًا للتحقق. يمكنه التأكد، وثقته مبرَّرة.
حين يسأل موظف مساعدًا داخليًا عن سياسة تعويض السفر ويحصل على رد يستشهد بدليل سياسات الموارد البشرية، الصفحة 12 — لا يحتاج إلى مراسلة قسم الموارد البشرية للتأكيد. الإجابة تحمل دليلها بذاتها.
حين يسأل عميل بنك عن شروط السداد المبكر ويتلقى إجابة تستشهد بوثيقة شروط اتفاقية التمويل — يملك كلا الطرفين، العميل والبنك، أساسًا مشتركًا وموثّقًا للتعامل.
الاستشهادات تحوّل الإجابات إلى أدلة. وفي البيئات المنظَّمة، الأدلة ليست اختيارية.
العربية كلغة أساسية وليست مجرد ترجمة
تُبنى معظم منصات الذكاء الاصطناعي بالإنجليزية وتُضاف العربية كفكرة لاحقة. النتيجة: صياغة ركيكة، واستفسارات يُساء فهمها، وإجابات تبدو مترجمة لا طبيعية.
تخدم المؤسسات السعودية أشخاصًا يتواصلون بالعربية الفصحى، واللهجة الخليجية، وكثيرًا بمزيج من العربية والإنجليزية. نظام استرجاع المعرفة الذي يعامل العربية كلغة أساسية — لا كطبقة ترجمة — يقدّم إجابات تبدو طبيعية وتكسب الثقة.
تعالج شاور اللغة العربية بشكل أصلي، وتتعامل مع الفروق اللغوية الدقيقة المهمة للاسترجاع الدقيق: التنوعات اللهجية، والاستفسارات المختلطة اللغة، والسجل الرسمي الذي تتطلبه الاتصالات الحكومية والمؤسسية.
اتساق متعدد القنوات دون مخاطر متعددة القنوات
يصل عملاؤك وموظفوك إليك عبر قنوات عديدة — موقعك الإلكتروني، وواتساب، والبوابات الداخلية. كل قناة هي نقطة يمكن فيها للمعلومات الخاطئة أن تسبب ضررًا.
يضمن نظام استرجاع المعرفة المحوكم تقديم الإجابات المعتمدة ذاتها عبر كل قناة، من قاعدة معرفة واحدة. حدّث سياسة مرة واحدة، وتعكس كل القنوات التغيير فورًا. لا خطر من أن تقدّم قناة معلومات قديمة بينما تقدّم أخرى النسخة الحالية.
هذا الاتساق مهم بشكل خاص للمؤسسات ذات الخدمات العامة. ينبغي أن يتلقى المواطن الإجابة ذاتها سواء سأل عبر أداة الموقع الإلكتروني للوزارة أو عبر واتساب. وينبغي أن يحصل الموظف على إجابة الموارد البشرية ذاتها سواء سأل عبر سلاك أو بوابة داخلية.
خلاصة القول
تمثّل روبوتات المحادثة العامة خطرًا على أي مؤسسة تهمها الدقة. فهي تولّد إجابات واثقة دون صلة بوثائقك الفعلية، ودون سجل تدقيق، ودون مساءلة.
تتّبع أنظمة استرجاع المعرفة نهجًا مختلفًا: إجابات محوكمة، من محتواك المعتمد، مع استشهادات بالمصادر، عبر كل القنوات. بالنسبة للمؤسسات السعودية التي تبحر في تحوّل رقمي سريع في ظل متطلبات تنظيمية حقيقية، هذا ليس ترفًا بل بنية تحتية أساسية.
إذا كانت مؤسستك تقيّم حلول الذكاء الاصطناعي لخدمة العملاء أو دعم الموظفين أو التفاعل مع المواطنين، فابدأ بطرح سؤال واحد: هل يستطيع هذا النظام أن يريني بالضبط من أين جاءت كل إجابة؟
إن كانت الإجابة لا، فأنت تنشر روبوت محادثة. وإن كانت الإجابة نعم، فأنت تنشر نظام استرجاع معرفة.
بُنيت شاور للمؤسسات التي تحتاج الخيار الثاني. استكشف المنصة وشاهد الإجابات المحوكمة على أرض الواقع.
