د. محمود السعيد يكتب.. الاستخدام المسؤول للذكاء الاصطناعي في البحث العلمي (1- ٥)

الاستخدام المسؤول للذكاء الاصطناعي في البحث العلمي (1)
في الثلاثين من سبتمبر الماضي أعلن المجلس الأعلى للجامعات عن خطوة جوهرية في مسيرة التعليم العالي والبحث العلمي المصري، وذلك بإصداره رسميًا الدليل الاسترشادي لضوابط استخدام الذكاء الاصطناعي. ويأتي هذا الدليل ليكون بمثابة إطار مرجعي شامل يوضح الأسس التنظيمية والمبادئ الأخلاقية والضوابط الحاكمة لاستخدام تطبيقات الذكاء الاصطناعي، سواء في العملية التعليمية داخل الجامعات أو في مجال البحث العلمي بمختلف مستوياته. ومن المتوقع أن يشكل هذا الدليل نقطة انطلاق للجامعات نحو تطوير سياساتها الداخلية ودلائلها الخاصة التي تضمن الاستخدام المسؤول لهذه التقنيات في خدمة التعليم والبحث.
ويؤكد المجلس الأعلى من خلال هذا الدليل الاسترشادي أن الهدف الأساسي منه يتمثل في وضع معايير وضوابط واضحة لتوظيف تطبيقات الذكاء الاصطناعي داخل البيئات الأكاديمية والبحثية، بما يحقق عدة غايات هامة في منظومة التعليم العالي والبحث العلمي مثل تعزيز جودة المخرجات العلمية، وتوجيه أعضاء هيئة التدريس والباحثين والطلاب نحو الاستخدام الأخلاقي والآمن لهذه التقنيات، والحد في الوقت ذاته من مخاطر سوء الاستخدام أو الإفراط في الاعتماد عليها دون وعي كافٍ بطبيعتها وحدودها.
على الجامعات والمراكز البحثية خلال الفترة المقبلة أن تقوم بتفعيل هذه الإرشادات عمليًا، لاسيما أن توظيف الذكاء الاصطناعي في البحث العلمي يطرح في هذه الأيام تحديات جوهرية تمس مفاهيم أصيلة في مجال البحث العلمي، مثل الأصالة الفكرية، والأمانة العلمية، وحجم المساهمة البحثية للباحث نفسه، فقد أصبح الاعتماد على أدوات الذكاء الاصطناعي التوليدية في إعداد الرسائل العلمية والأبحاث أمرًا شائعًا ولا يمكن منعه بتشريعات أو قوانين أو لوائح. وبالرغم من أن هذه الأدوات توفر قدرة أكبر للباحثين على الإنجاز والكفاءة في المخرجات البحثية، لكنها في المقابل تثير العديد من التساؤلات التي لا يمكن تجاهلها.
أول هذه التساؤلات يتمثل في الحدود الأخلاقية لاستخدام هذه الأدوات: فهل من المنطقي في عصرنا الرقمي أن تحظر المؤسسات الأكاديمية استخدامها بشكل كامل؟ الإجابة بالطبع لا، لأن الواقع العملي يفرض علينا الاستفادة من إمكاناتها في مراحل متعددة من البحث، وليس منع استخدامها. لكن في المقابل لا بد من وضع معايير دقيقة تضمن ألا يتحول استخدامها إلى التفاف على مفهوم “الجهد البحثي” أو تهميش لدور الباحث نفسه.
أما الإشكالية الثانية فتتعلق بظاهرة الانتحال الأكاديمي (Plagiarism)، حيث تعتمد تقنيات الذكاء الاصطناعي على معالجة كم هائل من النصوص والمحتويات السابقة لتوليد مخرجاتها. وهنا يبرز السؤال المهم: هل يمكن اعتبار الاعتماد على هذه المخرجات –دون معرفة المصادر الأصلية– نوعًا من الانتحال غير المباشر؟ وما الضمانة التي تتيح للباحث أن يقدم عملًا أصيلًا وهو يستخدم أدوات لا تكشف بوضوح عن جذور المادة المنتجة؟
وتأتي المخاوف الثالثة من زاوية مصداقية ودقة المعلومات التي يقدمها الذكاء الاصطناعي، إذ إن تطبيقاته لا تنتج معرفة جديدة بقدر ما تعيد صياغة ما سبق تغذيتها به من بيانات قد تكون ناقصة أو منحازة أو غير دقيقة. وقد سجل عدد من الباحثين ملاحظات عن إنتاج هذه الأدوات لمراجع علمية غير صحيحة أو حتى ملفقة، الأمر الذي يثير شكوكًا مبررة حول مدى صلاحيتها كمرجع علمي يمكن الوثوق به.
وتبقى هناك قضية لا تقل أهمية عن ما سبق، وهي مدى المساهمة العلمية الحقيقية للباحث في ظل السماح باستخدام الذكاء الاصطناعي في تحسين اللغة، أو إعادة تنظيم محتوى الرسالة، أو إجراء التحرير الأكاديمي. فكيف يمكن تقييم هذه المساهمة؟ وهل تكفي الصياغة النهائية الجيدة لتأكيد القيمة البحثية؟ هذا السؤال يقودنا إلى إعادة التفكير في آليات مناقشة الرسائل العلمية، التي تحولت في كثير من الأحيان إلى احتفال اجتماعي يقتصر على تقديم التهاني، في حين أن الأصل أن تكون المناقشة اختبارًا علميًا صارمًا يكشف مدى إلمام الباحث بمحتوى بحثه وسلامة منهجيته وقيمة نتائجه. هذا هو الأصل في مناقشة الرسائل، وهذا ما كانت عليه المناقشات قديماً، والعودة لهذا الأصل لم تعد أمرا اختياريا في ظل هذا العصر الرقمي، بل أصبحت ضرورة حتمية.
وفي سلسلة مقالات لاحقة، سنتوقف عند هذه القضايا بتفصيل أعمق، مستندين إلى مرجع علمي حديث يتمثل في دراسة نُشرت مؤخرًا بمجلة Advances in Simulation تحت عنوان: الكتابة الأكاديمية بمساعدة الذكاء الاصطناعي: توصيات للاستخدام الأخلاقي. وتتناول هذه الدراسة إرشادات دقيقة وضوابط محددة تضمن الاستخدام المسؤول والأخلاقي لهذه التطبيقات داخل البحث العلمي، بما يعزز من مصداقيته ويحافظ على قيمته.
الاستخدام المسؤول للذكاء الاصطناعي في البحث العلمي (2)
استكمالًا لما بدأناه في المقال السابق حول أهمية الدليل الاسترشادي لاستخدام تقنيات الذكاء الاصطناعي في التعليم العالي والبحث العلمي، الصادر عن المجلس الأعلى للجامعات في نهاية الشهر الماضي بهدف وضع إطار منظم للتعامل مع هذه التقنيات داخل الجامعات والمراكز البحثية، نتابع في هذا المقال مناقشة بعض القضايا المحورية التي أثارها توظيف الذكاء الاصطناعي في البحث العلمي. ويتركز الحديث في هذا المقال على قضيتين أساسيتين، هما: الإفصاح عن استخدام الذكاء الاصطناعي كأداة مساعدة في إنجاز البحث العلمي، وإمكانية إدراج الذكاء الاصطناعي كمؤلف مشارك في البحوث، وذلك في ضوء ما ورد في دليل المجلس الأعلى، واستنادًا كذلك إلى أحدث دراسة دولية نُشرت في مجلة Advances in Simulation، تحت عنوان: الكتابة الأكاديمية بمساعدة الذكاء الاصطناعي، والتي قدّمت توصيات دقيقة للاستخدام الأخلاقي والمسؤول لهذه الأدوات في مجال النشر الأكاديمي.
في جزء هام من الدراسة الدولية تم استطلاع رأي الناشرين والمجلات الأكاديمية، حيث عرضت الدراسة مواقف الناشرين والمحررين العلميين من استخدام أدوات الذكاء الاصطناعي التوليدية في كتابة البحوث العلمية. وقد أجمع هؤلاء على أن توظيف هذه الأدوات أصبح من أهم القضايا المعاصرة شديدة الحساسية وتتطلب وضع ضوابط وتعليمات واضحة تنظم استخدامها داخل المجتمع الأكاديمي والبحثي، لضمان الحفاظ على النزاهة البحثية والأصالة الفكرية في الأعمال المنشورة. كما قام الباحثون القائمون على الدراسة الدولية بمراجعة واسعة للأدبيات العلمية التي تناولت هذا الموضوع، بهدف استخلاص المبادئ الأساسية التي يمكن أن تشكل الإطار الأخلاقي للاستخدام المسؤول للذكاء الاصطناعي في الكتابة الأكاديمية.
وأظهرت نتائج الدراسة أن معظم الناشرين الأكاديميين يشددون على نزاهة البحث العلمي ويعتبرونها حجر الزاوية في مصداقية المؤسسات الأكاديمية والمجلات العلمية، ولذلك يحرصون على الإعلان عن سياساتهم بوضوح فيما يخص أخلاقيات النشر وسلامته. وأشارت الدراسة كذلك إلى أن عددًا من الجهات الأكاديمية الرصينة، مثل اللجنة الدولية لمحرري المجلات الطبية (ICMJE)، ومجلات شبكة JAMA، والرابطة العالمية لمحرري المجلات الطبية (WAME)، وغيرها من الجهات الدولية الأخرى، قد بادرت بإصدار توصيات وتعليمات محددة تنظم كيفية التعامل مع أدوات الذكاء الاصطناعي التوليدية أثناء إعداد البحوث الأكاديمية. ومن خلال تحليل هذه التوصيات، صاغ الباحثون مجموعة من المبادئ الجوهرية التي تمثل الإطار الأخلاقي لاستخدام هذه الأدوات بمسؤولية، وهي المبادئ التي سيتم تناولها تفصيليًا في المقالات القادمة.
وبصفة عامة يأتي في مقدمة هذه المبادئ “الشفافية الكاملة في الإفصاح عن استخدام أدوات الذكاء الاصطناعي” خلال مراحل إعداد البحث العلمي. فهذه الشفافية هي الضمانة الأساسية للنزاهة الأكاديمية، إذ يُطلب من الباحث الذي استعان بأي من تطبيقات الذكاء الاصطناعي، سواء في التحليل أو الصياغة أو تحرير النصوص، أن يُفصح بوضوح عن ذلك ضمن بحثه. وتشير التوصيات إلى أن أفضل موضع لهذا الإفصاح هو قسم المنهجية (Methodology)، حيث يستطيع القارئ من خلاله فهم طبيعة مساهمة الذكاء الاصطناعي في إنجاز العمل البحثي والوصول للنتائج. وعلى جانب آخر تسمح بعض المجلات بالإشارة إلى ذلك في قسم الشكر والتقدير (Acknowledgments)، ولكن يرى العديد من الباحثين أن الإفصاح عن الاستخدام في قسم المنهجية أكثر فاعلية ووضوحًا، لأن القرّاء عادة ما يولون اهتمامًا أكبر لهذا القسم من قسم الشكر والتقدير، مما يزيل أي لبس أو شك بشأن أصالة المحتوى العلمي.
ومن الملاحظ أيضا أن بعض المجلات بدأت خلال الأعوام القليلة الماضية بالسماح بإضافة الذكاء الاصطناعي كمؤلف مشارك ضمن قائمة المؤلفين، إلا أن غالبية الباحثين والناشرين يتفقون على أن هذا الإجراء غير مستحب من الناحية الأكاديمية، لأن أدوات الذكاء الاصطناعي، رغم قدرتها على توليد نصوص جديدة، لا يمكن أن تتحمل المسؤولية الفكرية أو القانونية عن محتوى البحث. وبذلك فهي لا تستوفي شروط التأليف العلمي المعترف بها، والتي تقوم على الإبداع والمساءلة والالتزام الأخلاقي. ولهذا، امتنعت العديد من المجلات العلمية مؤخرًا عن قبول إدراج الذكاء الاصطناعي كمؤلف، مكتفية بالمطالبة بذكر دوره كأداة مساعدة ضمن المنهجية أو قسم الشكر والتقدير.
وتؤكد الأدبيات في هذا السياق على أن جوهر البحث العلمي يجب أن يظل إنسانيًا، يقوم على الإبداع الفكري والمساهمة الأصلية للباحثين. فالذكاء الاصطناعي يمكن أن يُستخدم كأداة مساعدة للمراجعة اللغوية وتحسين الصياغة أو تسريع بعض المهام التقنية، لكنه لا يمكن أن يحل محل الجهد العقلي والإبداعي للإنسان، الذي يمثل القيمة الحقيقية وراء كل إنجاز علمي.
وختاماً نؤكد أن الاتجاه العام السائد بين الناشرين والمجلات العلمية هو تشجيع الاستخدام الأخلاقي والمنضبط لأدوات الذكاء الاصطناعي في كتابة البحوث، مع التأكيد على الإفصاح الكامل والمسؤول عن استخدامها، وأن يبقى الباحث هو المسؤول الأول عن دقة ومصداقية ما يُنشر تحت اسمه. وبهذا الأسلوب، يمكن للمجتمع الأكاديمي أن يحافظ على ثقة القرّاء في البحوث العلمية، وأن يصون مكانة العلم في عصر التكنولوجيا الذكية.
الاستخدام المسؤول للذكاء الاصطناعي في البحث العلمي (3)
في المقالين السابقين من هذه السلسلة، تحدثنا عن الإطار المرجعي الذي أعلن عنه المجلس الأعلى للجامعات من خلال الدليل الاسترشادي لاستخدام تقنيات الذكاء الاصطناعي في التعليم العالي والبحث العلمي، وهو ما يعد خطوة نوعية هامة من المجلس نحو ترسيخ ثقافة الاستخدام الآمن والمنضبط لهذه التقنيات داخل الجامعات والمراكز البحثية المصرية. وأوضحنا أن هذا الدليل يجب أن تعتمد علبه الجامعات في بناء أدلتها الأخلاقية الخاصة بها والتي تتناسب مع طبيعة أنشطتها الأكاديمية والبحثية وتعكس رسالتها المؤسسية.
كما ناقشنا أيضا القضايا التي أثارها استخدام تطبيقات الذكاء الاصطناعي في البحث العلمي خلال الآونة الأخيرة والتي ترتبط بصميم أخلاقياته، مثل الأصالة الفكرية، والنزاهة الأكاديمية، وأكدنا على ضرورة الإفصاح عن توظيف أدوات الذكاء الاصطناعي في الأبحاث والرسائل العلمية تعزيزًا لمبدأ الشفافية، وضمانًا لمصداقية المخرجات البحثية. وقد أوضحنا أن الشفافية في هذا السياق لا تُعتبر إجراءً شكليًا وحسب، بل هي الضامن الرئيس للنزاهة العلمية، لأنها توضح مدى مساهمة الباحث في العمل وحجم المساعدة التقنية التي أعتمد عليها في إنجازه.
وفي هذا المقال الثالث من السلسلة، نواصل تسليط الضوء على الاستخدام المسؤول لتقنيات الذكاء الاصطناعي في البحث العلمي، وذلك تحت مبدأ هام جدا وهو أن هذه التقنيات ينبغي أن تُوظف باعتبارها وسائل مساعدة في تطوير المعرفة، لا بدائل عن الإبداع الإنساني للباحث، فالقيمة الحقيقية للبحث العلمي لا يجب أن تُقاس بجودة اللغة أو دقة التنسيق فحسب، بل يجب أن تقاس بقوة الفكرة البحثية والمنهج وما إذا كان البحث قد أضاف جديداً إلى المعرفة الإنسانية.
وأشرنا في المقالين السابقين إلى دراسة علمية حديثة نُشرت في مجلة Advances in Simulation وتناولت موضوع الكتابة الأكاديمية بمساعدة الذكاء الاصطناعي. وفي سعيهم لتحديد حدود الاستخدام المسؤول لتقنيات الذكاء الاصطناعي في البحث العلمي، طرح مؤلفو المقال سؤالًا مباشرًا على تطبيق شات جي بي تي ChatGPT 4.0 حول ماهية حدود الاستخدام الأخلاقي لهذه التقنيات في كتابة الأبحاث الأكاديمية، خاصة في مجال الأبحاث الطبية والعلمية، حيث قام الباحثون بتوجيه السؤال التالي للتطبيق: “هل يمكن من فضلك تقديم قائمة بالطرق التي يمكن من خلالها استخدام ChatGPT أخلاقيًا لمساعدة الباحثين في كتابة مقالات للمجلات الطبية؟”
وجاءت إجابة التطبيق بتحديد عشرة استخدامات اعتبرها شات جي بي تي أنها لا تتعارض مع أخلاقيات البحث العلمي، وكانت هذه الاستخدامات على النحو الآتي:
1. مراجعة الأدبيات وتلخيص أبرز ما ورد فيها لتكوين خلفية معرفية أولية.
2. اقتراح مخطط أو هيكل تمهيدي للبحث يساعد الباحث على تنظيم أفكاره.
3. الحصول على تعريفات للمفاهيم والمصطلحات الأساسية المستخدمة في مجال الدراسة.
4. تحسين القواعد النحوية والاتساق اللغوي للنصوص العلمية المكتوبة.
5. إعادة صياغة الجمل أو الفقرات بشكل يجعلها أكثر دقة ووضوحًا وفاعلية.
6. اقتراح تفسيرات أكثر أو بديلة للنتائج وتحديد اتجاهات بحثية مستقبلية محتملة.
7. المساعدة في تبسيط عرض البيانات جدوليا أو بيانيا دون التلاعب بنتائجها الأصلية.
8. مراجعة مدى توافق البحث مع المتطلبات الأخلاقية أو السياسات التحريرية للمجلات (مراجعة نسب الاقتباس).
9. المساعدة في تجنّب مسألة الانتحال (Plagiarism) من خلال إعادة صياغة النصوص المقتبسة مع ضرورة الإشارة إلى المقال الأصلي في البحث.
10. تقديم ترجمة لغوية للنصوص الأكاديمية بغرض النشر العلمي بلغة مختلفة أو المشاركة في مؤتمرات دولية.
وبالنظر إلى هذه الاستخدامات العشرة التي حددها شات جي بي تي نجد أنها تمثل مجالات يمكن للذكاء الاصطناعي أن يضيف فيها قيمة حقيقية إلى العملية البحثية، بشرط أن يتم ذلك في إطار ضوابط واضحة تحافظ على أصالة العمل ومصداقيته. كما أنه من المهم أن يتم أخذ تخصص الباحث في الحسبان عند النظر إلى مدى إمكانية استخدام أيا منها لمساعدة الباحث. فعلى سبيل المثال، قد لا يكون هناك مشكلة في استخدام تقنيات الذكاء الاصطناعي في تحسين قواعد اللغة والاتساق اللغوي في بحث اقتصادي أو طبي، ولكن قد يكون الأمر غير ذلك في دراسة خاصة بالشعر أو النحو على سبيل المثال لا الحصر.
كذلك فأن بعض هذه الاستخدامات، مثل مراجعة الأدبيات أو اقتراح تفسيرات للنتائج، تتطلب تدقيق ومراجعة صارمة من الباحث، لأن أدوات الذكاء الاصطناعي قد تعتمد على بيانات غير موثوقة أو تعميمات غير دقيقة إذا لم يُتحقق من مصادرها، كما أنها في بعض الأحيان تستخدم مصادر ملفقة أو غير دقيقة، وهي ظاهرة تسمى “هلوسة الذكاء الاصطناعي”. وفي كل الأحوال فكل ما يرد في البحث من صفحته الأولى للأخيرة هو مسؤولية كاملة للباحثين من الناحية العلمية والأخلاقية والقانونية.
وبعرض الاستخدامات العشرة السابقة على مجموعة من المتخصصين لاستطلاع آرائهم وإذا ما كانوا يتفقون مع شات جي بي تي فيما حدده من استخدامات مسؤولة لتقنيات الذكاء الاصطناعي في البحث العلمي، فقد أجمعوا على أن استخدام الذكاء الاصطناعي في تحسين اللغة أو إعادة الصياغة أو الترجمة، هو من أكثر الاستخدامات قبولًا وانتشارًا، شريطة أن يُذكر ذلك صراحة في قسم المنهجية أو الشكر والتقدير داخل البحث، التزامًا بمبدأ الشفافية. هذه الاستخدامات العشرة لتطبيقات الذكاء الاصطناعي تعكس اتجاهًا عالميًا متناميًا نحو تنظيم العلاقة بين الباحث والأدوات الذكية، على الرغم أنه لا يوجد اتفاق تام بين المهتمين بالأمر حولها بصورة نهائية.
كل ما يهم المؤسسات البحثية ودور النشر في الوقت الحالي، وبعيدا عن فكرة حدود الاستخدام، هو ان تكون السيطرة الفكرية والبحثية في يد الباحث وليس فيما ينتجه الذكاء الاصطناعي، والذي يمكن أن يُستخدم لتيسير عملية الكتابة وتحسين جودة العرض بلا أدنى مشكلة أخلاقية. وعلينا أن نعلم ان التحدي الحقيقي أمام الجامعات ودور النشر اليوم ليس في منع استخدام الذكاء الاصطناعي، بل في توجيهه توجيهًا أخلاقيًا ومسؤولًا يحافظ على جوهر البحث العلمي، وهو ما يجب أن نركز عليه أيضاً في مؤسساتنا الأكاديمية.
الاستخدام المسؤول للذكاء الاصطناعي في البحث العلمي (4)
في المقالات السابقة من هذه السلسلة تناولنا الإصدار الثالث من الدليل الاسترشادي الصادر عن المجلس الأعلى للجامعات، وناقشنا مفهوم الاستخدام المسؤول لتقنيات الذكاء الاصطناعي في البحث العلمي. كما تطرقنا إلى الاستخدامات المسموح بها للذكاء الاصطناعي في الكتابة الأكاديمية. وفي هذا المقال نستكمل الحوار بالحديث عن الاستخدامات غير المسموح بها لهذه التقنيات في إجراء البحث وكتابته. ولكي نحدد الاستخدامات الممنوعة، ينبغي أولاً التمييز بين أمرين أساسيين: المحتوى البحثي المدعوم بالذكاء الاصطناعي، والمحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي. التمييز بين المفهومين السابقين هو الأساس الجوهري في تحديد ما يُعد استخدامًا مشروعًا وأخلاقياً، وما يُعد استخداماً مخالفًا لأخلاقيات البحث العلمي.
فالمحتوى البحثي المدعوم بالذكاء الاصطناعي هو ذلك المحتوى الذي كتبه الباحث بنفسه، لكنه استعان ببعض الأدوات الذكية لتحسين جودة النص، مثل أن يستخدم الباحث أدوات التدقيق اللغوي لمراجعة النص المكتوب وتصحيح الأخطاء اللغوية، أو إعادة الصياغة لبعض الفقرات لزيادة الوضوح، أو طلب اقتراح تحسينات في الأسلوب. في هذه الحالة يظل الباحث هو صاحب العمل الأصلي، ولا يتعارض هذا الاستخدام مع مبدأ “الأصالة”، لأن الذكاء الاصطناعي هنا مجرد أداة مساعدة لتحسين المنتج النهائي. هذا النوع من الاستخدام مقبول عمومًا لدى معظم الناشرين والمنظمات الدولية المعنية بأخلاقيات البحث العلمي، شريطة الإفصاح الصريح عنه في متن البحث (في جزء المنهجية او الشكر والتقدير كما اشرنا سابقاً)، إذ يُعد عملاً أصيلاً لا يمس نزاهة البحث أو مصداقيته.
أما المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، فهو الذي يكون فيه دور الباحث في إعداد النص منعدمًا أو محدودًا للغاية، بينما يقوم تطبيق الذكاء الاصطناعي بإنتاج أجزاء كبيرة من البحث أو حتى إنتاج النص كاملاً بناءً على توجيهات بسيطة من الباحث. ويتفق المهتمون بهذا الشأن أن هذا الاستخدام غير أخلاقي، لأنه ينتقص من الجهد البحثي الحقيقي، ويثير قلق المجتمع الأكاديمي بشأن مستقبل البحث العلمي في ظل الاعتماد المفرط على الذكاء الاصطناعي. ولهذا ترفضه معظم دور النشر واللجان الدولية لأخلاقيات البحث رفضًا قاطعًا.
وبناءً على ما تقدم من إيضاحات عن الفرق بين المفهومين، فإن الاستخدام المحظور للذكاء الاصطناعي في البحث العلمي هو الاستخدام الذي يؤدي إلى محتوى يتم إنشاؤه بالكامل بواسطة الذكاء الاصطناعي، سواء تدخّل الباحث في تعديله أم لا، خصوصًا إذا لم تكن هناك أسباب بحثية واضحة تبرر هذا الاستخدام. كما أن بعض دور النشر تحظر استخدام الذكاء الاصطناعي كليًا في الأجزاء التي يُفترض أن تُظهر قدرات الباحث التحليلية والنقدية، مثل أقسام المناقشة، والتحليل، والخاتمة، وتسمح به فقط في الجوانب اللغوية والتحريرية.
ولا تقتصر قيود استخدام الذكاء الاصطناعي على الباحثين وحدهم، بل تشمل أيضًا المشرفين على الرسائل والمراجعين والمحررين. فمن واجب هؤلاء الحفاظ على دقة ومصداقية النشر الأكاديمي، وعدم استخدام أدوات الذكاء الاصطناعي في مراجعة المخطوطات أو المقترحات البحثية، لأن تحميلها على منصات الذكاء الاصطناعي قد يُهدد سريتها. ومع ذلك، يمكن الاستعانة بهذه الأدوات في مهام مساعدة مثل تنظيم التعليقات على البحث أو تحسين أسلوب كتابة التقرير. وبوجه عام، يمكن للذكاء الاصطناعي أن يكون مساعدًا في عمليات المراجعة والتحرير، لكنه لا يمكن أن يحل محلّ المحكِّم البشري.
وفي نهاية المطاف، تبقى مسؤولية الاستخدام الأخلاقي في يد الباحث نفسه، إذ يبقى الضمير المهني هو الرقيب الحقيقي على السلوك العلمي. فالبحث العلمي هدفه الأسمى هو خدمة المجتمع لا مجرد الحصول على الدرجات أو الترقيات، وإذا التزم الباحث بهذا المبدأ، فسيظل محافظًا على قيم النزاهة والشفافية التي تُعد جوهر أخلاقيات البحث العلمي.
الاستخدام المسؤول للذكاء الاصطناعي في البحث العلمي (5)
في أخر مقالين من هذه السلسلة تناولنا بالتفصيل الجوانب المختلفة لاستخدام تطبيقات الذكاء الاصطناعي في دعم الباحث في إعداد بحثه وكتابته، كما وضحنا الفرق بين الاستخدامات المشروعة وغير المشروعة وفقًا للمعايير التي وضعتها دور النشر الدولية، ولجان أخلاقيات البحث العلمي حول العالم، بالإضافة إلى الدليل الاسترشادي الصادر عن المجلس الأعلى للجامعات في نسخته الثالثة بشأن استخدامات الذكاء الاصطناعي في مجالي التعليم والبحث العلمي. وقد أكدنا في المقال الأخير على أهمية التمييز بين نوعين من النصوص المكتوبة، وهما النص الذي تم إنشاؤه بالكامل بواسطة الذكاء الاصطناعي أو الجزء الأكبر منه، والنص الذي تم دعم إعداده بتقنيات الذكاء الاصطناعي ولكنه من إنشاء الباحث. فهذه التفرقة هي حجر الأساس في تحديد ما يُعد استخدامًا مشروعًا وأخلاقيًا للذكاء الاصطناعي، وما يُعد انتهاكًا لأخلاقيات البحث العلمي ومعاييره العالمية.
في هذا المقال، نستكمل هذه السلسلة من المقالات بتقديم عدد من التوصيات والسياسات المقترحة التي يمكن أن تتبناها الجامعات والمراكز البحثية من أجل مواكبة التطورات السريعة في استخدامات تقنيات الذكاء الاصطناعي في البحث العلمي، وضمان توظيف الذكاء الاصطناعي بطريقة مسؤولة وفعّالة تعزز من جودة البحث العلمي وتسهم في التنمية الشاملة.
التوصية الأولي هي قيام الجامعات بإنشاء وحدات أو مراكز تميز جامعية تُعنى بدراسة وتطبيق تقنيات الذكاء الاصطناعي في مجالات التعليم، البحث، والابتكار، بما يتيح للجامعات أن تكون حاضنات للتميز العلمي والمعرفي في هذا المجال المتنامي. هذه المراكز تتسم بالقدرة العالية على تعزيز الابتكار والكفاءة وتحسين الجودة في مجالات استخدام الذكاء الاصطناعي، فهي تجمع الخبرات الأكاديمية المتخصصة في هذا المجال لتقديم الدعم والنصائح والتدريب لكافة أطراف المصالح، وتعمل على توحيد أفضل الممارسات ودعم اتخاذ القرار الاستراتيجي.
التوصية الثانية هي تطوير استراتيجية جامعية للذكاء الاصطناعي على غرار ما قامت به جامعة القاهرة في أكتوبر 2024 والتي تهدف إلى الارتقاء بتصنيف الجامعة في مؤشرات الابتكار العالمية، من خلال توظيف تطبيقات الذكاء الاصطناعي في إجراء الأبحاث التطبيقية، وتحفيز تسجيل براءات الاختراع الناتجة عن استخدام هذه التقنيات.
التوصية الثالثة هي تشجيع البحوث متعددة التخصصات التي تعتمد على الذكاء الاصطناعي كأداة أساسية في إيجاد حلول مبتكرة للتحديات المجتمعية والتنموية، بما يعزز التكامل بين العلوم الإنسانية، الاجتماعية، والطبيعية، وذلك من خلال إتاحة ودعم مشروعات بحثية في هذا المجال الحيوي.
التوصية الرابعة هي وضع لوائح وأدلة واضحة في ضوء الدليل الاسترشادي للمجلس الأعلى للجامعات، تكون وسيلة للجامعة لضبط استخدام الذكاء الاصطناعي في البحث العلمي، مع التأكيد على الالتزام بمبادئ الخصوصية، وحماية البيانات، وأمن المعلومات البحثية.
التوصية الخامسة هي قيام الجامعات بتعزيز الوعي المجتمعي والمؤسسي بأهمية الاستخدام المنظم والمسؤول لتقنيات الذكاء الاصطناعي، من خلال وندوات وورش عمل توعوية لأعضاء هيئة التدريس والباحثين، وكذلك تدشين حملات توعية تستهدف الجهات التشريعية، والمؤسسات الأكاديمية، والقطاع الخاص، ومنظمات المجتمع المدني.
التوصية السادسة هي توحيد الجهود الوطنية بين الجامعات والمراكز البحثية في إطار التحالفات الإقليمية السبعة التي حددتها وزارة التعليم العالي والبحث العلمي، وذلك بغرض إنشاء قواعد بيانات بحثية مشتركة تعتمد على الذكاء الاصطناعي في التحليل، واستخلاص النتائج، والتنبؤ بالاتجاهات البحثية المستقبلية.
التوصية السابعة هي تنفيذ برامج تدريبية متخصصة داخل الجامعات تهدف إلى تمكين أعضاء هيئة التدريس والباحثين والطلاب من استخدام أدوات الذكاء الاصطناعي بكفاءة، مع التعريف بمزاياها، ومخاطرها، وحدودها الأخلاقية.
التوصية الثامنة هي تضمين مقررات دراسية عن الذكاء الاصطناعي في المناهج الجامعية على غرار ما أعلنته جامعة القاهرة مؤخرا، على أن لا تقتصر هذه المقررات على الجوانب التقنية، بل تشمل الأبعاد القانونية والأخلاقية، وأساليب الاستخدام المسؤول في التعليم والبحث العلمي.
التوصية التاسعة هي قيام الجامعات بإجراء تقييمات دورية شاملة لقياس الأثر الأخلاقي والاجتماعي لاستخدامات الذكاء الاصطناعي داخلها، وضمان توافق الممارسات مع السياسات الوطنية والمعايير الدولية المعتمدة.
إن تبني هذه السياسات من قبل الجامعات المصرية لا يهدف فقط إلى مواكبة التطور التقني العالمي، بل إن الهدف الأسمى هو تأسيس منظومة أكاديمية وبحثية مستدامة قادرة على توظيف الذكاء الاصطناعي بما يخدم أهداف التنمية والابتكار، ويعزز من مكانة الجامعات والمراكز البحثية على المستويين الإقليمي والدولي.