تكنولوجياتعليم

المجلس الأعلى للجامعات يرسخ حوكمة الذكاء الاصطناعي: فصل جديد لأخلاقيات استخدام التطبيقات الذكية في التعليم والبحث العلمي

المجلس الأعلى للجامعات يرسخ حوكمة الذكاء الاصطناعي: فصل جديد لأخلاقيات استخدام التطبيقات الذكية في التعليم والبحث العلمي

كتب ا  د  وائل بدوى

في خطوة تعكس وعيًا مؤسسيًا متقدمًا بتحديات العصر الرقمي وتسارع توظيف التقنيات الذكية في التعليم والبحث، أصدر المجلس الأعلى للجامعات دليل النزاهة الأكاديمية وأخلاقيات البحث العلمي، بوصفه إطارًا وطنيًا منظمًا يهدف إلى ترسيخ القيم الأكاديمية، وضمان جودة المخرجات العلمية، وحماية الثقة العامة في التعليم العالي المصري. ويأتي هذا الدليل استجابة مباشرة للتحولات الجذرية التي أحدثها الذكاء الاصطناعي في أنماط التعلم والإنتاج المعرفي، وما يفرضه ذلك من ضوابط أخلاقية وقانونية واضحة.

الفصل السادس: أخلاقيات استخدام تطبيقات الذكاء الاصطناعي

خصص الدليل فصله السادس لمعالجة أخلاقيات استخدام تطبيقات الذكاء الاصطناعي، إدراكًا لما تمثله هذه التقنيات من فرص غير مسبوقة لتطوير التدريس والبحث العلمي، وما تحمله في الوقت ذاته من مخاطر تتعلق بالأصالة العلمية، والشفافية، والدقة، وحماية البيانات. وتنطلق مادة (20) من مبدأ محوري مفاده أن الذكاء الاصطناعي أداة داعمة للعمل الأكاديمي وليست بديلًا عن العقل البشري أو المسؤولية العلمية، وأن الاستخدام الرشيد لهذه الأدوات هو شرط لازم لضمان النزاهة وجودة العملية التعليمية والبحثية.

الشفافية والإفصاح: أساس الثقة الأكاديمية

يؤكد الفصل السادس على أن الشفافية تمثل حجر الزاوية في أي استخدام أكاديمي للذكاء الاصطناعي. فالإفصاح الصريح عن الاستعانة بأي أداة ذكية في إعداد المحاضرات أو الأبحاث أو المواد التعليمية ليس إجراءً شكليًا، بل هو ممارسة أخلاقية تضمن وضوح الأدوار وحدود التدخل التقني في المنتج النهائي. كما يشدد الدليل على ضرورة توضيح نوع الأداة المستخدمة ووظيفتها، مع تجنب تقديم مخرجات الأنظمة الذكية باعتبارها عملًا شخصيًا خالصًا دون الإشارة إلى مصدرها.

المسؤولية العلمية وعدم التفويض الأعمى

يحمّل الدليل عضو هيئة التدريس المسؤولية الكاملة عن جميع المخرجات الأكاديمية التي يُستخدم فيها الذكاء الاصطناعي، مؤكدًا أن الاستعانة بالأدوات الذكية لا تعفي من المساءلة العلمية أو الأخلاقية. ويحذر من الاعتماد المفرط على هذه الأنظمة في اتخاذ قرارات أكاديمية أو بحثية دون مراجعة واعية، حفاظًا على الدور التربوي والعلمي للأستاذ الجامعي، ومنع تحوّل الذكاء الاصطناعي إلى بديل عن التفكير النقدي والخبرة الإنسانية.

الأصالة ومكافحة الانتحال

في ظل قدرة بعض أدوات الذكاء الاصطناعي على توليد نصوص عالية الجودة، يولي الدليل أهمية خاصة لضمان الأصالة العلمية. ويشدد على مراجعة المحتوى المولّد للتحقق من خلوه من الانتحال أو الاقتباس غير الموثق، والتأكد من أصالته قبل استخدامه أو نشره، مع الدعوة إلى استخدام أدوات كشف التشابه والانتحال كآلية داعمة لضمان جودة العمل العلمي والحفاظ على مصداقيته.

توثيق المعلومات والمصادر

ينص الفصل السادس بوضوح على أن أي معلومة أو فكرة يتم الحصول عليها عبر أدوات الذكاء الاصطناعي يجب توثيقها وفق أساليب التوثيق المعتمدة. ويؤكد أن الذكاء الاصطناعي لا يُعد مرجعًا علميًا أوليًا، بل أداة مساعدة، وأن الاستشهاد بمخرجاته يخضع لقواعد النشر العلمي المعمول بها، بما يحفظ حقوق الملكية الفكرية ويمنع التضليل الأكاديمي.

الدقة والمصداقية والتفكير النقدي

يشدد الدليل على ضرورة التحقق من دقة البيانات والتحليلات التي تنتجها أدوات الذكاء الاصطناعي، والتأكد من خلوها من التحيزات أو الأخطاء، وذلك من خلال مقارنتها بمصادر علمية موثوقة. كما يدعو إلى ممارسة التفكير النقدي وعدم قبول المعلومات المنتجة آليًا بشكل تلقائي، بما يعزز مهارات التقييم والتحليل لدى أعضاء هيئة التدريس والباحثين.

حماية الخصوصية وأمن البيانات

في ضوء المخاطر المتزايدة المتعلقة بتسريب البيانات، يضع الدليل ضوابط صارمة لحماية الخصوصية وأمن المعلومات. فيحظر إدخال بيانات شخصية أو معلومات سرية أو موضوعات بحثية غير منشورة في أدوات غير موثوقة، ويلزم بالالتزام بسياسات أمن المعلومات المعتمدة داخل الجامعات، مع تشجيع استخدام المنصات المؤسسية الآمنة كلما أمكن.

الأمانة العلمية ومنع فبركة المحتوى

يرفض الفصل السادس بشكل قاطع أي ممارسات تتعلق بفبركة البيانات أو الصور أو النتائج باستخدام الذكاء الاصطناعي، أو إنتاج أبحاث ومهام جاهزة وتقديمها باعتبارها أعمالًا أصيلة. ويعيد التأكيد على القيم الجوهرية للبحث العلمي، المتمثلة في الصدق والشفافية والنزاهة، باعتبارها خطوطًا حمراء لا يجوز تجاوزها تحت أي ذريعة تقنية.

الالتزام المؤسسي وتطوير القدرات

يُلزم الدليل أعضاء هيئة التدريس باتباع سياسات الجامعات والمجلات العلمية بشأن الإفصاح عن استخدام الذكاء الاصطناعي، وعدم اعتباره مؤلفًا أو شريكًا في أي عمل علمي، مع احترام حقوق الملكية الفكرية للمحتوى المنشأ آليًا. كما يركز على أهمية تطوير مهارات عضو هيئة التدريس، من خلال فهم آلية عمل الأدوات الذكية وحدودها ومخاطرها، وتعزيز مهارات النقد والتحليل، ونقل ثقافة الاستخدام المسؤول والأخلاقي للذكاء الاصطناعي إلى الطلاب.

خلاصة

يمثل الفصل السادس من دليل النزاهة الأكاديمية وأخلاقيات البحث العلمي خطوة نوعية نحو حوكمة استخدام الذكاء الاصطناعي في التعليم العالي المصري. فهو لا يقف عند حدود التحذير أو المنع، بل يؤسس لاستخدام واعٍ ومتوازن يحقق الاستفادة القصوى من التقنيات الحديثة دون الإخلال بالقيم الأكاديمية الراسخة. وبهذا الإطار، يضع المجلس الأعلى للجامعات الأساس لبناء منظومة تعليمية وبحثية تجمع بين الابتكار والمسؤولية، وتؤكد أن التقدم التكنولوجي الحقيقي لا ينفصل عن النزاهة والأخلاق.

النص كامل

في خطوة تعكس وعيًا مؤسسيًا متقدمًا بتحديات العصر الرقمي وتسارع توظيف التقنيات الذكية في التعليم والبحث، أصدر المجلس الأعلى للجامعات دليل النزاهة الأكاديمية وأخلاقيات البحث العلمي، بوصفه إطارًا وطنيًا منظمًا يهدف إلى ترسيخ القيم الأكاديمية، وضمان جودة المخرجات العلمية، وحماية الثقة العامة في التعليم العالي المصري. ويأتي هذا الدليل استجابة مباشرة للتحولات الجذرية التي أحدثها الذكاء الاصطناعي في أنماط التعلم والإنتاج المعرفي، وما يفرضه ذلك من ضوابط أخلاقية وقانونية واضحة.الفصل السادس: أخلاقيات استخدام تطبيقات الذكاء الاصطناعي خصص الدليل فصله السادس لمعالجة أخلاقيات استخدام تطبيقات الذكاء الاصطناعي، إدراكًا لما تمثله هذه التقنيات من فرص غير مسبوقة لتطوير التدريس والبحث العلمي، وما تحمله في الوقت ذاته من مخاطر تتعلق بالأصالة العلمية، والشفافية، والدقة، وحماية البيانات. وتنطلق مادة (20) من مبدأ محوري مفاده أن الذكاء الاصطناعي أداة داعمة للعمل الأكاديمي وليست بديلًا عن العقل البشري أو المسؤولية العلمية، وأن الاستخدام الرشيد لهذه الأدوات هو شرط لازم لضمان النزاهة وجودة العملية التعليمية والبحثية. الشفافية والإفصاح: أساس الثقة الأكاديمية يؤكد الفصل السادس على أن الشفافية تمثل حجر الزاوية في أي استخدام أكاديمي للذكاء الاصطناعي. فالإفصاح الصريح عن الاستعانة بأي أداة ذكية في إعداد المحاضرات أو الأبحاث أو المواد التعليمية ليس إجراءً شكليًا، بل هو ممارسة أخلاقية تضمن وضوح الأدوار وحدود التدخل التقني في المنتج النهائي. كما يشدد الدليل على ضرورة توضيح نوع الأداة المستخدمة ووظيفتها، مع تجنب تقديم مخرجات الأنظمة الذكية باعتبارها عملًا شخصيًا خالصًا دون الإشارة إلى مصدرها. المسؤولية العلمية وعدم التفويض الأعمى يحمّل الدليل عضو هيئة التدريس المسؤولية الكاملة عن جميع المخرجات الأكاديمية التي يُستخدم فيها الذكاء الاصطناعي، مؤكدًا أن الاستعانة بالأدوات الذكية لا تعفي من المساءلة العلمية أو الأخلاقية. ويحذر من الاعتماد المفرط على هذه الأنظمة في اتخاذ قرارات أكاديمية أو بحثية دون مراجعة واعية، حفاظًا على الدور التربوي والعلمي للأستاذ الجامعي، ومنع تحوّل الذكاء الاصطناعي إلى بديل عن التفكير النقدي والخبرة الإنسانية. الأصالة ومكافحة الانتحال في ظل قدرة بعض أدوات الذكاء الاصطناعي على توليد نصوص عالية الجودة، يولي الدليل أهمية خاصة لضمان الأصالة العلمية. ويشدد على مراجعة المحتوى المولّد للتحقق من خلوه من الانتحال أو الاقتباس غير الموثق، والتأكد من أصالته قبل استخدامه أو نشره، مع الدعوة إلى استخدام أدوات كشف التشابه والانتحال كآلية داعمة لضمان جودة العمل العلمي والحفاظ على مصداقيته. توثيق المعلومات والمصادر ينص الفصل السادس بوضوح على أن أي معلومة أو فكرة يتم الحصول عليها عبر أدوات الذكاء الاصطناعي يجب توثيقها وفق أساليب التوثيق المعتمدة. ويؤكد أن الذكاء الاصطناعي لا يُعد مرجعًا علميًا أوليًا، بل أداة مساعدة، وأن الاستشهاد بمخرجاته يخضع لقواعد النشر العلمي المعمول بها، بما يحفظ حقوق الملكية الفكرية ويمنع التضليل الأكاديمي. الدقة والمصداقية والتفكير النقدي يشدد الدليل على ضرورة التحقق من دقة البيانات والتحليلات التي تنتجها أدوات الذكاء الاصطناعي، والتأكد من خلوها من التحيزات أو الأخطاء، وذلك من خلال مقارنتها بمصادر علمية موثوقة. كما يدعو إلى ممارسة التفكير النقدي وعدم قبول المعلومات المنتجة آليًا بشكل تلقائي، بما يعزز مهارات التقييم والتحليل لدى أعضاء هيئة التدريس والباحثين. حماية الخصوصية وأمن البيانات في ضوء المخاطر المتزايدة المتعلقة بتسريب البيانات، يضع الدليل ضوابط صارمة لحماية الخصوصية وأمن المعلومات. فيحظر إدخال بيانات شخصية أو معلومات سرية أو موضوعات بحثية غير منشورة في أدوات غير موثوقة، ويلزم بالالتزام بسياسات أمن المعلومات المعتمدة داخل الجامعات، مع تشجيع استخدام المنصات المؤسسية الآمنة كلما أمكن. الأمانة العلمية ومنع فبركة المحتوى يرفض الفصل السادس بشكل قاطع أي ممارسات تتعلق بفبركة البيانات أو الصور أو النتائج باستخدام الذكاء الاصطناعي، أو إنتاج أبحاث ومهام جاهزة وتقديمها باعتبارها أعمالًا أصيلة. ويعيد التأكيد على القيم الجوهرية للبحث العلمي، المتمثلة في الصدق والشفافية والنزاهة، باعتبارها خطوطًا حمراء لا يجوز تجاوزها تحت أي ذريعة تقنية. الالتزام المؤسسي وتطوير القدرات يُلزم الدليل أعضاء هيئة التدريس باتباع سياسات الجامعات والمجلات العلمية بشأن الإفصاح عن استخدام الذكاء الاصطناعي، وعدم اعتباره مؤلفًا أو شريكًا في أي عمل علمي، مع احترام حقوق الملكية الفكرية للمحتوى المنشأ آليًا. كما يركز على أهمية تطوير مهارات عضو هيئة التدريس، من خلال فهم آلية عمل الأدوات الذكية وحدودها ومخاطرها، وتعزيز مهارات النقد والتحليل، ونقل ثقافة الاستخدام المسؤول والأخلاقي للذكاء الاصطناعي إلى الطلاب. خلاصة يمثل الفصل السادس من دليل النزاهة الأكاديمية وأخلاقيات البحث العلمي خطوة نوعية نحو حوكمة استخدام الذكاء الاصطناعي في التعليم العالي المصري. فهو لا يقف عند حدود التحذير أو المنع، بل يؤسس لاستخدام واعٍ ومتوازن يحقق الاستفادة القصوى من التقنيات الحديثة دون الإخلال بالقيم الأكاديمية الراسخة. وبهذا الإطار، يضع المجلس الأعلى للجامعات الأساس لبناء منظومة تعليمية وبحثية تجمع بين الابتكار والمسؤولية، وتؤكد أن التقدم التكنولوجي الحقيقي لا ينفصل عن النزاهة والأخلاق.
المجلس الأعلى للجامعات يرسخ حوكمة الذكاء الاصطناعي: فصل جديد لأخلاقيات استخدام التطبيقات الذكية في التعليم والبحث العلمي
في خطوة تعكس وعيًا مؤسسيًا متقدمًا بتحديات العصر الرقمي وتسارع توظيف التقنيات الذكية في التعليم والبحث، أصدر المجلس الأعلى للجامعات دليل النزاهة الأكاديمية وأخلاقيات البحث العلمي، بوصفه إطارًا وطنيًا منظمًا يهدف إلى ترسيخ القيم الأكاديمية، وضمان جودة المخرجات العلمية، وحماية الثقة العامة في التعليم العالي المصري. ويأتي هذا الدليل استجابة مباشرة للتحولات الجذرية التي أحدثها الذكاء الاصطناعي في أنماط التعلم والإنتاج المعرفي، وما يفرضه ذلك من ضوابط أخلاقية وقانونية واضحة.الفصل السادس: أخلاقيات استخدام تطبيقات الذكاء الاصطناعي خصص الدليل فصله السادس لمعالجة أخلاقيات استخدام تطبيقات الذكاء الاصطناعي، إدراكًا لما تمثله هذه التقنيات من فرص غير مسبوقة لتطوير التدريس والبحث العلمي، وما تحمله في الوقت ذاته من مخاطر تتعلق بالأصالة العلمية، والشفافية، والدقة، وحماية البيانات. وتنطلق مادة (20) من مبدأ محوري مفاده أن الذكاء الاصطناعي أداة داعمة للعمل الأكاديمي وليست بديلًا عن العقل البشري أو المسؤولية العلمية، وأن الاستخدام الرشيد لهذه الأدوات هو شرط لازم لضمان النزاهة وجودة العملية التعليمية والبحثية. الشفافية والإفصاح: أساس الثقة الأكاديمية يؤكد الفصل السادس على أن الشفافية تمثل حجر الزاوية في أي استخدام أكاديمي للذكاء الاصطناعي. فالإفصاح الصريح عن الاستعانة بأي أداة ذكية في إعداد المحاضرات أو الأبحاث أو المواد التعليمية ليس إجراءً شكليًا، بل هو ممارسة أخلاقية تضمن وضوح الأدوار وحدود التدخل التقني في المنتج النهائي. كما يشدد الدليل على ضرورة توضيح نوع الأداة المستخدمة ووظيفتها، مع تجنب تقديم مخرجات الأنظمة الذكية باعتبارها عملًا شخصيًا خالصًا دون الإشارة إلى مصدرها. المسؤولية العلمية وعدم التفويض الأعمى يحمّل الدليل عضو هيئة التدريس المسؤولية الكاملة عن جميع المخرجات الأكاديمية التي يُستخدم فيها الذكاء الاصطناعي، مؤكدًا أن الاستعانة بالأدوات الذكية لا تعفي من المساءلة العلمية أو الأخلاقية. ويحذر من الاعتماد المفرط على هذه الأنظمة في اتخاذ قرارات أكاديمية أو بحثية دون مراجعة واعية، حفاظًا على الدور التربوي والعلمي للأستاذ الجامعي، ومنع تحوّل الذكاء الاصطناعي إلى بديل عن التفكير النقدي والخبرة الإنسانية. الأصالة ومكافحة الانتحال في ظل قدرة بعض أدوات الذكاء الاصطناعي على توليد نصوص عالية الجودة، يولي الدليل أهمية خاصة لضمان الأصالة العلمية. ويشدد على مراجعة المحتوى المولّد للتحقق من خلوه من الانتحال أو الاقتباس غير الموثق، والتأكد من أصالته قبل استخدامه أو نشره، مع الدعوة إلى استخدام أدوات كشف التشابه والانتحال كآلية داعمة لضمان جودة العمل العلمي والحفاظ على مصداقيته. توثيق المعلومات والمصادر ينص الفصل السادس بوضوح على أن أي معلومة أو فكرة يتم الحصول عليها عبر أدوات الذكاء الاصطناعي يجب توثيقها وفق أساليب التوثيق المعتمدة. ويؤكد أن الذكاء الاصطناعي لا يُعد مرجعًا علميًا أوليًا، بل أداة مساعدة، وأن الاستشهاد بمخرجاته يخضع لقواعد النشر العلمي المعمول بها، بما يحفظ حقوق الملكية الفكرية ويمنع التضليل الأكاديمي. الدقة والمصداقية والتفكير النقدي يشدد الدليل على ضرورة التحقق من دقة البيانات والتحليلات التي تنتجها أدوات الذكاء الاصطناعي، والتأكد من خلوها من التحيزات أو الأخطاء، وذلك من خلال مقارنتها بمصادر علمية موثوقة. كما يدعو إلى ممارسة التفكير النقدي وعدم قبول المعلومات المنتجة آليًا بشكل تلقائي، بما يعزز مهارات التقييم والتحليل لدى أعضاء هيئة التدريس والباحثين. حماية الخصوصية وأمن البيانات في ضوء المخاطر المتزايدة المتعلقة بتسريب البيانات، يضع الدليل ضوابط صارمة لحماية الخصوصية وأمن المعلومات. فيحظر إدخال بيانات شخصية أو معلومات سرية أو موضوعات بحثية غير منشورة في أدوات غير موثوقة، ويلزم بالالتزام بسياسات أمن المعلومات المعتمدة داخل الجامعات، مع تشجيع استخدام المنصات المؤسسية الآمنة كلما أمكن. الأمانة العلمية ومنع فبركة المحتوى يرفض الفصل السادس بشكل قاطع أي ممارسات تتعلق بفبركة البيانات أو الصور أو النتائج باستخدام الذكاء الاصطناعي، أو إنتاج أبحاث ومهام جاهزة وتقديمها باعتبارها أعمالًا أصيلة. ويعيد التأكيد على القيم الجوهرية للبحث العلمي، المتمثلة في الصدق والشفافية والنزاهة، باعتبارها خطوطًا حمراء لا يجوز تجاوزها تحت أي ذريعة تقنية. الالتزام المؤسسي وتطوير القدرات يُلزم الدليل أعضاء هيئة التدريس باتباع سياسات الجامعات والمجلات العلمية بشأن الإفصاح عن استخدام الذكاء الاصطناعي، وعدم اعتباره مؤلفًا أو شريكًا في أي عمل علمي، مع احترام حقوق الملكية الفكرية للمحتوى المنشأ آليًا. كما يركز على أهمية تطوير مهارات عضو هيئة التدريس، من خلال فهم آلية عمل الأدوات الذكية وحدودها ومخاطرها، وتعزيز مهارات النقد والتحليل، ونقل ثقافة الاستخدام المسؤول والأخلاقي للذكاء الاصطناعي إلى الطلاب. خلاصة يمثل الفصل السادس من دليل النزاهة الأكاديمية وأخلاقيات البحث العلمي خطوة نوعية نحو حوكمة استخدام الذكاء الاصطناعي في التعليم العالي المصري. فهو لا يقف عند حدود التحذير أو المنع، بل يؤسس لاستخدام واعٍ ومتوازن يحقق الاستفادة القصوى من التقنيات الحديثة دون الإخلال بالقيم الأكاديمية الراسخة. وبهذا الإطار، يضع المجلس الأعلى للجامعات الأساس لبناء منظومة تعليمية وبحثية تجمع بين الابتكار والمسؤولية، وتؤكد أن التقدم التكنولوجي الحقيقي لا ينفصل عن النزاهة والأخلاق.
المجلس الأعلى للجامعات يرسخ حوكمة الذكاء الاصطناعي: فصل جديد لأخلاقيات استخدام التطبيقات الذكية في التعليم والبحث العلمي

الفصل السادس: أخلاقيات استخدام تطبيقات الذكاء الاصطناعي

مادة (20): أخلاقيات استخدام تطبيقات الذكاء الاصطناعي

تلتزم الجامعات المصرية بضمان الاستخدام المسؤول والواعي لتقنيات الذكاء الاصطناعي في التدريس والبحث العلمي والإنتاج الأكاديمي، وذلك انسجامًا مع معايير النزاهة الأكاديمية والأطر الأخلاقية المعتمدة، ويُعد التقيد بالضوابط الأخلاقية أساسًا لضمان الشفافية والمصداقية وجودة العملية التعليمية والبحثية. وعليه، يلتزم أعضاء هيئة التدريس والهيئة المعاونة بالتعليم العالي باتباع الضوابط الآتية عند استخدام تطبيقات الذكاء الاصطناعي:

أولًا: الالتزام بالشفافية والإفصاح
• الإفصاح الصريح عن استخدام أي أداة ذكاء اصطناعي في إعداد محاضرات أو أبحاث أو محتوى علمي أو مواد تعليمية.
• توضيح نوع الأداة المستخدمة والدور الذي قامت به وحدود تدخلها في المنتج النهائي.
• تجنب تقديم مخرجات الأنظمة الذكية باعتبارها عملًا شخصيًا دون ذكر المصدر.

ثانيًا: المسؤولية العلمية عن المخرجات
• يتحمل عضو هيئة التدريس المسؤولية الكاملة عن جميع المخرجات الأكاديمية التي يُستخدم فيها أدوات الذكاء الاصطناعي.
• عدم الاعتماد المفرط على الأنظمة الذكية في اتخاذ قرارات أكاديمية أو بحثية دون مراجعة واعية.
• الحفاظ على الدور التربوي والعلمي للعضو الأكاديمي دون استبداله بتطبيقات الذكاء الاصطناعي.

ثالثًا: ضمان الأصالة ومكافحة الانتحال
• مراجعة النصوص المولدة للتحقق من خلوها من الانتحال أو الاقتباس غير الموثق.
• التأكد من أصالة المحتوى قبل استخدامه أو نشره.
• استخدام أدوات كشف التشابه والانتحال لضمان جودة وأصالة العمل العلمي.

رابعًا: توثيق المعلومات والمصادر
• توثيق أي معلومة أو نص أو فكرة تم الحصول عليها عبر أدوات الذكاء الاصطناعي وفق أساليب التوثيق المعتمدة.
• اعتبار الذكاء الاصطناعي أداة مساعدة وليس مرجعًا علميًا أوليًا.
• الالتزام بقواعد النشر العلمي عند الاستشهاد بمخرجات التطبيقات الذكية.

خامسًا: التحقق من الدقة والمصداقية
• مراجعة البيانات والتحليلات التي تنتجها أدوات الذكاء الاصطناعي والتأكد من صحتها وخلوها من التحيزات.
• مقارنة المخرجات بمصادر علمية موثوقة قبل اعتمادها في التدريس أو البحث.
• ممارسة مهارات التفكير النقدي وعدم قبول المعلومات المنتجة بشكل آلي دون تقييم.

سادسًا: حماية الخصوصية وأمن البيانات
• عدم إدخال بيانات شخصية أو معلومات سرية أو موضوعات بحثية غير منشورة في أدوات غير موثوقة.
• الالتزام بسياسات أمن المعلومات في الجامعة.
• استخدام الأدوات الذكية عبر منصات مؤسسية موثوقة كلما أمكن.

سابعًا: الأمانة العلمية وعدم فبركة المحتوى
• الامتناع عن فبركة بيانات أو صور أو نتائج باستخدام الذكاء الاصطناعي.
• عدم استخدام الأدوات الذكية لإنتاج أبحاث أو مهام جاهزة وتقديمها باعتبارها عملًا أصيلًا.
• احترام القيم العلمية القائمة على الصدق والشفافية والنزاهة.

ثامنًا: الالتزام المؤسسي بالقواعد والسياسات
• اتباع سياسات الجامعات والمجلات العلمية بشأن الإفصاح عن استخدام الذكاء الاصطناعي.
• عدم اعتبار الذكاء الاصطناعي مؤلفًا أو مشاركًا في تأليف أي عمل علمي.
• الالتزام بحقوق الملكية الفكرية عند استخدام المحتوى المنشأ آليًا.

تاسعًا: تطوير مهارات عضو هيئة التدريس
• فهم آلية عمل الأدوات الذكية وحدود قدراتها والمخاطر المحتملة المرتبطة باستخدامها.
• تعزيز مهارات النقد والتحليل والتحقق لدى عضو هيئة التدريس والهيئة المعاونة.
• نقل المعرفة للطلاب حول الاستخدام المسؤول والأخلاقي للذكاء الاصطناعي.

ويُعد الالتزام بهذه الضوابط جزءًا أساسيًا من مسؤوليات أعضاء هيئة التدريس والهيئة المعاونة في الجامعات المصرية، كما يخضع أي إخلال بها لإجراءات المساءلة وفق اللوائح المنظمة للعمل الأكاديمي. وتشجع الجامعات منسوبيها على متابعة التطورات التقنية وتعزيز قدراتهم لضمان الاستخدام الآمن والمسؤول لتطبيقات الذكاء الاصطناعي بما يخدم جودة التعليم والبحث العلمي.

تم نسخ الرابط بنجاح!

مقالات ذات صلة

زر الذهاب إلى الأعلى