قام علماء من أمريكا وألمانيا بتحليل أكثر من 15 مليون ملخص بحثي طبي على موقع “PubMed” للإجابة عن سؤال مهم: هل ترك الذكاء الاصطناعي أثرًا يمكن تتبعه في طريقة اختيار الكلمات في الأبحاث العلمية؟ كانت النتيجة مفاجئة!
لاحظ العلماء في تحليلهم أنه منذ ظهور نماذج اللغة الكبيرة هذه، هناك زيادة ملحوظة في استخدام كلمات معينة ذات طابع “أسلوبي وبلاغي” أكثر. تشير البيانات إلى أن ما لا يقل عن 13.5% من الأبحاث المنشورة في عام 2024 قد تم تعديلها أو كتابتها جزئيًا باستخدام الذكاء الاصطناعي .
هذه النتائج ليست مجرد تخمين. فالأبحاث السابقة التي حاولت قياس هذا التأثير اعتمدت على مقارنة نصوص كتبها البشر بنصوص من إنتاج الذكاء الاصطناعي، مما قد يشوبها تحيز. لكن هذه الدراسة الجديدة اتبعت منهجًا أكثر ذكاءً، مشابهًا للدراسات في مجال الصحة العامة عند مقارنة أعداد الوفيات قبل وبعد حدث معين (مثل جائحة كوفيد-19) لتقييم تأثيره. بنفس الطريقة، قارن الباحثون استخدام كلمات محددة قبل وبعد ظهور “ChatGPT” .
واكتشفوا تحولًا كبيرًا في أنماط استخدام الكلمات. فقبل عام 2024، كانت معظم الكلمات الزائدة هي أسماء (تمثل 79.2% من الكلمات المتزايدة). لكن في عام 2024، حدث تغير واضح، حيث أصبحت 66% من الكلمات الزائدة أفعالًا، و14% صفات. كما وجدوا أن الذكاء الاصطناعي يستخدم كلمات معينة بشكل مفرط، مثل: (Showcasing) أي عرض أو (Pivotal) محوري أو (grappling) التعامل مع.
كشفت الدراسة أن الذكاء الاصطناعي لم يعد مجرد أداة مساعدة، بل أصبح يترك أثرًا واضحًا في المحتوى العلمي.
وجهة نظر شخصية:
أنا أميل إلى تأييد استخدام الذكاء الاصطناعي في الكتابة العلمية، خاصةً في المهام المتكررة أو عند الكتابة بلغة غير اللغة الأم. لكن المشكلة الحقيقية ليست في “من كتب”، بل في “ماذا كُتِب”. فالسؤال الأهم هو: هل البحث قدّم شيئًا مبتكرًا؟ وهل يتحمل الباحث مسؤولية استخدامه للذكاء الاصطناعي، سواء أدى إلى أخطاء (“هلوسة”) أو نتائج دقيقة؟
في النهاية، الأهم هو الجودة العلمية والابتكار، بغض النظر عن الكاتب. لكن يبقى التحدي في كيفية ضمان مصداقية الأبحاث مع تزايد الاعتماد على هذه الأدوات.
رابط البحث:
Kobak, Dmitry, et al. “Delving into LLM-assisted writing in biomedical publications through excess vocabulary.” Science Advances 11.27 (2025): eadt3813.