منتظر جهاد / باحث وخبير في مجال علوم الجينوم والذكاء الاصطناعي- جامعة كامبردج

يمثل الذكاء الاصطناعي (AI) تقنية ثورية أعادت تشكيل العديد من المجالات، بما في ذلك البحث العلمي والكتابة الأكاديمية. وصل الذكاء الاصطناعي إلى حد لا يمكن التغاضي عنه أو الوقوف ضد استخدامه، ولكنه في ذات الوقت يثير قضايا وتحديات أخلاقية في العديد من المجالات، مما يتطلب اهتمامًا خاصًا لضمان النزاهة والشفافية.

وعلى ضوء الازدياد الهائل في استخدام الذكاء الاصطناعي الذي شهدته السنوات الأخيرة، مدفوعًا بتطور البرامج والأدوات مثل Bard وChatGPT وCopilot، يشهد العالم ولادة واكتشاف مئات من أدوات الذكاء الاصطناعي التي تتزايد بشكل يومي. حيث أصبحت هذه التقنيات لا غنى عنها في العديد من المجالات البحثية، لا سيما بين أدوات إعادة الصياغة الكتابية أو أدوات البحث السريع أو حتى أدوات الكتابة الآلية.

وبدلاً من الوقوف ضد تيار الذكاء الاصطناعي الجارف، ارتأت الجامعات الكبرى مثل هارفارد وكامبردج وغيرها وضع خطط وقوانين تهدف إلى إفساح المجال لاستخدامه وفق ضوابط أخلاقية من اجل تحقيق التوازن بين الفوائد الكبيرة التي يمكن أن يقدمها والتحديات الأخلاقية التي قد تنشأ عن استخدامه غير المنضبط.

التحديات الأخلاقية في استخدام الذكاء الاصطناعي

أمام الفوائد الكبيرة التي يوفرها الذكاء الاصطناعي، تقف هناك تحديات أخلاقية كبيرة، قد تكون أهمها مسألة النزاهة الأكاديمية. يسعى المختصون إلى ضمان شفافية استخدام الذكاء الاصطناعي في الكتابة والنشر العلمي بما لا يلغي دور الباحث. بهذا الصدد، تؤكد جامعة هارفارد على ضرورة أن يتضمن أي بحث يستخدم الذكاء الاصطناعي تفصيلًا واضحًا عن الكيفية التي تم استخدامها، وهل ان اجزاء البحث الذي أنتجته أدوات الذكاء الاصطناعي قد خضع للمراجعة البشرية؟ مؤكدين على الشفافية، ومنوهين إلى أن الغموض في استخدام الذكاء الاصطناعي من شأنه أن يؤدي إلى مشكلات في النزاهة الأكاديمية والوقوع في شرك تضليل القراء والباحثين.

التحديات التقنية والقانونية

إضافة إلى التحديات الأخلاقية، هناك تحديات تقنية وقانونية تواجه استخدام الذكاء الاصطناعي في البحث العلمي. مما يوجب على الباحثين التأكد من أن الأدوات التي يستخدمونها تتوافق مع القوانين واللوائح المحلية والدولية المتعلقة بالخصوصية وحماية البيانات. بالإضافة إلى ذلك، يجب أن تكون هناك ضوابط واضحة حول حقوق الملكية الفكرية للنتائج التي يتم الحصول عليها باستخدام الذكاء الاصطناعي، خاصة إذا كانت الأدوات المستخدمة تعتمد على قواعد بيانات تتضمن أعمالًا محمية بحقوق الطبع والنشر.

ويتعين على المؤسسات الأكاديمية المحلية وضع سياسات واضحة تحكم استخدام الذكاء الاصطناعي وتوجه الباحثين حول استخداماته، بما في ذلك إرشادات حول كيفية الإشارة إلى استخدام هذه الأدوات في الأبحاث المنشورة وآليات للتحقق من النزاهة الأكاديمية ومكافحة الانتحال العلمي الذي قد ينتج عن الاستخدام غير الأخلاقي للذكاء الاصطناعي.

الذكاء الاصطناعي ليس ذكياً بما فيه الكفاية!

استخدام الذكاء الاصطناعي قد يشكل خطراً كبيراً في بعض الأحيان على نتاج الباحثين، لأن أغلب الخوارزميات التي تعتمد عليها هذه الأدوات كانت قد تدربت على نوع وكمية معينة من البيانات. أداء هذه الخوارزميات يعتمد على تلك الأنواع من البيانات التي تدربت عليها. لذلك، ينبغي أن يحذر الباحثون عند اختيار وتقييم المعلومات التي يحصلون عليها من هذه الأدوات. ولأننا لم نصل بعد إلى مرحلة الذكاء المطلق لهذه البرامج (حتى هذه اللحظة)، ينبغي على الباحث أن يكون أكثر حذراً عند استخدام هذه الأدوات، التي قد تقوم في بعض الأحيان بإعطاء معلومات مغلوطة أو حتى معلومات غير موجودة أصلاً، وإنما هي ناتجة عن نسج خيال الأداة الذكية (!) وهنا يكمن التحدي الأكبر في ضمان دقة وصحة المعلومات الناتجة عن الذكاء الاصطناعي، وضرورة التحقق الدائم من قبل الباحثين او ما تسمى بـ(المراجعة البشرية).

توصيات للاستخدام الأخلاقي للذكاء الاصطناعي

يتفق المختصون في جامعتي هارفارد وكامبردج على أن استخدام الذكاء الاصطناعي ينبغي أن يتسم بالشفافية وألا يُستخدم في الكتابة بدلاً من الباحث نفسه بالدرجة الأساس. يمكن استخدام الذكاء الاصطناعي كأداة مساعدة أو يمكن اعتباره باحثاً مساعداً يمتلك الكثير من المعلومات (لكنها بحاجة إلى تدقيق). حيث يرى المختصون أنه لا ضير في استخدام أدوات الذكاء الاصطناعي للمساعدة في البحث عن المعلومات حول موضوع معين، خصوصاً إذا كان الباحث موجوداً في بيئة يصعب فيها الحصول على المعلومات، أو قد يكون الباحث مطلعاً على جزء معين من الموضوع ويحتاج إلى المساعدة في الإحاطة أكثر بالجوانب الأخرى. ولكن في ذات الوقت، ينبغي أخذ الحيطة والحذر عند استخدام هذه الأدوات والعمل على تدقيق وتمحيص كل معلومة تقدمها، بعد أن تبين أن هذه البرامج في بعض الأحيان قد تقوم بإعطاء معلومات غير دقيقة أو غير موجودة تماماً.

من ناحية أخرى، يرى آخرون ومنهم دور النشر العالمية إمكانية استخدام أدوات الذكاء الاصطناعي في إعادة صياغة الجمل، وبالأخص إذا كان الباحثون من غير المتحدثين بالإنجليزية، وذلك من باب تحقيق الغاية المنشودة في إيصال المعلومة بأفضل طريقة ممكنة للبحوث الأصيلة، بشرط عدم قيام هذه الأدوات بالكتابة عوضاً عن الباحث بشكل كامل.

وفي الختام، أرى انه من الضروري أن تسارع جامعاتنا المحلية في وضع قوانين تؤطر استخدام هذه الأدوات بشكل نزيه وعادل، بدلاً من حالة الارتباك التي يعيشها معظم باحثينا الآن، حيث يعتمدون على الاجتهادات الشخصية في اغلب الاحيان. ولا بأس في استعارة أو حتى استخدام القوانين المعمول بها في الجامعات العالمية المرموقة وتعديلها بما يتناسب مع النظام الجامعي المحلي.