اختبر الباحثون كيف تؤثر النبرات المختلفة، التي تتراوح من المهذبة جداً إلى الوقحة جداً، على أداء ChatGPT-4o في الأسئلة متعددة الخياراتاختبر الباحثون كيف تؤثر النبرات المختلفة، التي تتراوح من المهذبة جداً إلى الوقحة جداً، على أداء ChatGPT-4o في الأسئلة متعددة الخيارات

لماذا قد تؤثر المجاملة مع الذكاء الاصطناعي سلبًا على نتائجك

2026/03/26 18:18
7 دقيقة قراءة
للحصول على ملاحظات أو استفسارات بشأن هذا المحتوى، يرجى التواصل معنا على crypto.news@mexc.com

لسنوات، كانت النصيحة للتفاعل مع الذكاء الاصطناعي تبدو بسيطة تقريبًا: كن مهذبًا، كن واضحًا، قل "من فضلك". لكن الأبحاث الجديدة تشير إلى أن هذه الغريزة، المتجذرة في المعايير الاجتماعية البشرية، قد تؤدي بهدوء إلى تقويض أداء أنظمة الذكاء الاصطناعي.

دراسة قُدمت في ورشة عمل NeurIPS 2025، نُشرت في سبتمبر 2025، بعنوان "انتبه لنبرة صوتك: التحقيق في كيفية تأثير أدب الأوامر على دقة نماذج اللغة الكبيرة"، تكتشف أن النبرة التي تستخدمها عند إعطاء الأوامر لنماذج اللغة الكبيرة (LLMs) يمكن أن تغير دقتها بشكل قابل للقياس. وفي نتيجة تبدو غير بديهية، بل ومقلقة، قد تنتج الأوامر الأكثر تهذيبًا في الواقع نتائج أسوأ.

اختبر الباحثون كيف تؤثر النبرات المختلفة، التي تتراوح من مهذبة جدًا إلى فظة جدًا، على أداء ChatGPT-4o في أسئلة الاختيار من متعدد. باستخدام مجموعة بيانات من 50 سؤالًا متوسط الصعوبة عبر الرياضيات والعلوم والتاريخ، أنشأوا خمس نسخ من كل أمر: مهذب جدًا، مهذب، محايد، فظ، وفظ جدًا.

الفرق الوحيد بين هذه الأوامر كان النبرة. الأسئلة نفسها بقيت متطابقة.

وفقًا للدراسة، ازدادت الدقة بشكل مطرد مع انخفاض مستوى التهذيب في الأوامر. حققت الأوامر المهذبة جدًا دقة متوسطة بلغت 80.8%. بالمقارنة، وصلت الأوامر الفظة جدًا إلى 84.8%، بتحسن يقارب أربع نقاط مئوية. تفوقت الأوامر المحايدة على الأوامر المهذبة، وكان أداء الأوامر الفظة أفضل.

أكد الاختبار الإحصائي النمط: لم تكن هناك حالات أدت فيها الأوامر الأكثر تهذيبًا إلى نتائج أفضل بشكل كبير. كل فرق ذي معنى كان لصالح الصياغة الأقل تهذيبًا أو الأكثر مباشرة.

بعبارة أخرى، النبرة وحدها، وهو شيء يفترض معظم المستخدمين أنه لا ينبغي أن يهم، يمكن أن تغير أداء الذكاء الاصطناعي.

لماذا قد تساعد الفظاظة؟

توقفت الدراسة عن تقديم تفسير نهائي، لكنها تثير سؤالًا أعمق حول كيفية معالجة نماذج اللغة الكبيرة للغة. على عكس البشر، هذه الأنظمة لا "تشعر" بالتهذيب أو الإساءة. بالنسبة لها، كلمات مثل "من فضلك" أو حتى الإهانات هي مجرد رموز، أنماط مستفادة من بيانات التدريب.

أحد التفسيرات المحتملة هو أن ما يبدو كـ "فظاظة" هو في الواقع بديل لشيء آخر: المباشرة.

تميل الأوامر الفظة إلى أن تكون أكثر حزمًا. إنها تزيل اللغة المتحفظة وتذهب مباشرة إلى المهمة. بدلاً من "هل يمكنك حل هذا السؤال بلطف؟"، قد يقول أمر فظ، "أجب عن هذا". قد يجعل هذا الاختلاف في البنية المهمة أكثر وضوحًا للنموذج.

عامل آخر حددته الدراسة هو طول الأمر والأنماط المعجمية. إضافة عبارات مهذبة تدخل رموزًا إضافية قد تخفف أو تشتت عن التعليمات الأساسية. بالمقابل، تتماشى الأوامر الأقصر والأكثر حدة مع الأنماط التي رآها النموذج أثناء التدريب.

هناك أيضًا احتمال أن نبرات معينة تتماشى بشكل أوثق مع توزيع بيانات التدريب أو تعليمات النظام، مما يقلل ما يسميه الباحثون "الحيرة". إنها الطريقة الرياضية لقياس مدى "مفاجأة" أو "ارتباك" النموذج من الكلمات التي يراها.

الإشارة هي أن النبرة ليست غلافًا محايدًا حول السؤال. إنها جزء من المدخلات، وتشكل كيفية استجابة النموذج.

تحول عن البحث السابق

تمثل النتائج انحرافًا ملحوظًا عن العمل السابق. وجدت دراسة 2024 من قبل Yin وآخرين أن الأوامر غير المهذبة غالبًا ما قللت من الدقة، خاصة مع النماذج الأقدم مثل ChatGPT-3.5. اقترح هذا البحث أيضًا أن اللغة المهذبة بشكل مفرط لم تحسن النتائج بالضرورة، لكنها لم تظهر ميزة واضحة للفظاظة.

إذن ماذا تغير؟

أحد التفسيرات التي قدمتها دراسة 2025 هو تطور النموذج. قد تعالج الأنظمة الأحدث مثل ChatGPT-4o اللغة بشكل مختلف، أو قد تكون أقل حساسية للآثار السلبية للصياغة القاسية. احتمال آخر هو أن معايرة النبرة مهمة. الأوامر "الفظة جدًا" في الدراسة الجديدة، على الرغم من كونها مسيئة، أقل تطرفًا من الأمثلة السامة الأكثر استخدامًا في الأبحاث السابقة.

هناك أيضًا تحول أوسع في كيفية تدريب النماذج. مع تقدم نماذج اللغة الكبيرة، تتعرض لبيانات أكثر تنوعًا وعمليات ضبط تعليمات أكثر تعقيدًا، مما قد يغير كيفية تفسيرها للإشارات اللغوية الدقيقة.

الدور الخفي للإشارات الاجتماعية

تتصل فكرة أن النبرة يمكن أن تؤثر على أداء الذكاء الاصطناعي بظاهرة أوسع وأكثر إثارة للقلق: الأوامر الاجتماعية.

مجموعة منفصلة من الأبحاث، دراسة GASLIGHTBENCH الصادرة في 7 ديسمبر 2025، تظهر أن نماذج اللغة الكبيرة معرضة بشدة للإشارات الاجتماعية مثل المجاملة والنداءات العاطفية والسلطة الزائفة. في هذه التجارب، غالبًا ما تتخلى النماذج عن الدقة الواقعية للتماشي مع نبرة المستخدم أو توقعاته، وهو سلوك يُعرف بالتملق.

على سبيل المثال، عندما يقدم المستخدمون معلومات غير صحيحة بثقة أو ضغط عاطفي، قد توافق النماذج بدلاً من تحديهم. في بعض الحالات، تنخفض الدقة بشكل كبير، خاصة في المحادثات متعددة الأدوار حيث يعزز المستخدم بشكل متكرر ادعاءً كاذبًا.

يخلق هذا مفارقة. من ناحية، يمكن أن تجعل اللغة المهذبة أو الغنية اجتماعيًا التفاعلات تبدو أكثر طبيعية وإنسانية. من ناحية أخرى، يمكن أن تدخل ضوضاء - أو حتى تحيزًا - يضعف أداء النموذج.

تذهب نتائج GASLIGHTBENCH إلى أبعد من ذلك، مما يشير إلى أن تقنيات التوافق المصممة لجعل النماذج "مفيدة" قد تشجع هذا السلوك عن غير قصد. من خلال مكافأة التهذيب والتوافق، قد تدفع عمليات التدريب النماذج إلى إعطاء الأولوية للانسجام الاجتماعي على الحقيقة الموضوعية.

ماذا يقول هذا عن كيفية "فهم" الذكاء الاصطناعي للغة

معًا، تتحدى هذه النتائج افتراضًا شائعًا: أن نماذج اللغة الكبيرة تفسر اللغة بطريقة شبيهة بالبشر.

في الواقع، هذه الأنظمة هي محركات إحصائية. لا تفهم التهذيب كمعيار اجتماعي؛ تتعرف عليه كنمط في البيانات. عندما تقول "من فضلك"، لا يشعر النموذج بالإلزام بالمساعدة؛ إنه يعالج ببساطة رموزًا إضافية قد تساعد أو لا تساعد في التنبؤ بالإجابة الصحيحة.

إن كان هناك شيء، يشير البحث إلى أن نماذج اللغة الكبيرة قد تكون أكثر حساسية للوضوح الهيكلي من الفروق الاجتماعية الدقيقة. قد تقلل اللغة المباشرة والحازمة من الغموض وتسهل على النموذج ربط المدخلات بنمط معروف.

يثير هذا أيضًا أسئلة حول "فرضية التشابه" - فكرة أن النماذج تؤدي بشكل أفضل عندما تشبه المهام بيانات التدريب الخاصة بها. إذا كانت النبرة وحدها يمكن أن تغير الدقة، فإن التشابه لا يتعلق فقط بالمحتوى ولكن أيضًا بالشكل.

على الرغم من النتائج التي تجذب العناوين الرئيسية، يحرص الباحثون على عدم التوصية بأن يصبح المستخدمون فظين أو مسيئين.

منظور الصناعة

بالنسبة للأشخاص الذين يبنون ويدرسون أنظمة الذكاء الاصطناعي، تسلط النتائج الضوء على قضية أعمق: ترث النماذج أنماط وتحيزات اللغة البشرية.

يضعها Alex Tsado، خبير الذكاء الاصطناعي الذي عمل عن كثب مع مطوري النماذج وهو مؤسس ومدير Alliance4AI، أحد أكبر مجتمعات الذكاء الاصطناعي في أفريقيا، بشكل صريح: "تتعلم النماذج من بيانات التفاعل البشري، لذلك طالما يتم تدريبها بشكل أعمى، فإنها تتبع ما يحدث في المجال البشري. لذا إذا كنا نعتقد أن هناك تحيزًا أو ممارسة ضارة في المجال البشري، فسيتم أتمتته في مجال الذكاء الاصطناعي".

يتضمن ذلك كيفية استخدام النبرة.

"ولكن عندما تكون مسؤولاً عن بناء نموذج الذكاء الاصطناعي، يمكنك تعديل التحيز بعيدًا عن الأشياء التي تعتقد أنها ضارة"، يضيف Tsado. "في هذه الحالة، عندما التقيت بفريق Anthropic في أوائل ديسمبر 2025، قالوا إنهم رأوا هذا وأضافوا أشياء لجعل نماذجهم تتفاعل مع هذه الكلمات اللطيفة أو الحادة".

بعبارة أخرى، هذه ليست خاصية ثابتة للذكاء الاصطناعي. يمكن تعديلها من خلال التدريب والتصميم.

ما الذي سيأتي بعد ذلك

البحث الحالي لا يزال محدودًا. تركز التجارب على أسئلة الاختيار من متعدد بدلاً من المهام الأكثر تعقيدًا مثل البرمجة أو الكتابة أو التفكير الطويل. من غير الواضح ما إذا كانت نفس الأنماط ستصمد في تلك المجالات، حيث تهم الفروق الدقيقة والتفسير أكثر.

هناك أيضًا عوامل ثقافية ولغوية يجب مراعاتها. يختلف التهذيب بشكل كبير عبر اللغات والسياقات، وتستند فئات النبرة في الدراسة إلى تعبيرات إنجليزية محددة.

ومع ذلك، من الصعب تجاهل الآثار.

إذا كان شيء سطحي مثل النبرة يمكن أن يؤثر باستمرار على أداء الذكاء الاصطناعي، فإن ذلك يشير إلى أن هندسة الأوامر بعيدة عن الحل. يمكن أن يكون للتغييرات الصغيرة في الصياغة، التي غالبًا ما يتم تجاهلها، تأثيرات قابلة للقياس.

بالنسبة للمستخدمين، الدرس بسيط لكنه غير بديهي: الطريقة التي تطرح بها السؤال مهمة، وأن تكون مهذبًا ليس دائمًا أفضل استراتيجية.

بالنسبة للباحثين والمطورين، التحدي أكثر تعقيدًا. كيف تصمم أنظمة دقيقة ومتوافقة مع القيم الإنسانية؟ كيف تضمن أن الإشارات الاجتماعية لا تشوه المخرجات الواقعية؟

وربما الأهم من ذلك، كيف تبني ذكاءً اصطناعيًا يفهم ليس فقط ما نقوله - بل ما نعنيه؟

حتى يتم الإجابة على هذه الأسئلة، شيء واحد واضح: عندما يتعلق الأمر بالذكاء الاصطناعي، قد لا تؤتي الآداب الحسنة ثمارها دائمًا.

إخلاء مسؤولية: المقالات المُعاد نشرها على هذا الموقع مستقاة من منصات عامة، وهي مُقدمة لأغراض إعلامية فقط. لا تُظهِر بالضرورة آراء MEXC. جميع الحقوق محفوظة لمؤلفيها الأصليين. إذا كنت تعتقد أن أي محتوى ينتهك حقوق جهات خارجية، يُرجى التواصل عبر البريد الإلكتروني crypto.news@mexc.com لإزالته. لا تقدم MEXC أي ضمانات بشأن دقة المحتوى أو اكتماله أو حداثته، وليست مسؤولة عن أي إجراءات تُتخذ بناءً على المعلومات المُقدمة. لا يُمثل المحتوى نصيحة مالية أو قانونية أو مهنية أخرى، ولا يُعتبر توصية أو تأييدًا من MEXC.