في إطار جهودها لمواجهة المخاوف المتزايدة بشأن تأثير الذكاء الاصطناعي على الشباب، أعلنت شركة OpenAI عن تحديث إرشادات استخدام نماذجها للذكاء الاصطناعي مع المستخدمين دون سن 18 عاما، بالإضافة إلى إطلاق موارد تعليمية موجهة للمراهقين وأولياء الأمور. ومع ذلك، يظل التساؤل قائما حول مدى تطبيق هذه السياسات على أرض الواقع.
تأتي هذه التحديثات في وقت تتعرض فيه صناعة الذكاء الاصطناعي، وOpenAI بشكل خاص، لتدقيق متزايد من قبل صانعي السياسات والمعلمين وخبراء حماية الأطفال، خاصة بعد تقارير عن حالات انتحار بين مراهقين نتيجة محادثات طويلة مع روبوتات الدردشة الذكية.
ويعد جيل زد، المولودون بين 1997 و2012، الأكثر استخداما لهذه المنصة، ومع الشراكة الأخيرة بين OpenAI وديزني، من المتوقع أن يزداد عدد المستخدمين الشباب، إذ تتيح المنصة القيام بأنشطة متنوعة، من المساعدة في الواجبات المدرسية إلى توليد الصور والفيديوهات حول آلاف الموضوعات.
مؤخرا، وقع 42 مدع عاما رسالة مشتركة لشركات التكنولوجيا الكبرى لحثها على وضع تدابير حماية للأطفال والمستخدمين الضعفاء، في حين قدم بعض صانعي السياسات الأمريكيين، مثل مشروع قانون يقضي بمنع القصر من التفاعل مع روبوتات الذكاء الاصطناعي تماما.

التحديثات في إرشادات النموذج
تحدد وثيقة Model Spec الجديدة سلوكيات نماذج اللغة الكبيرة، استنادا إلى النسخ السابقة التي تمنع إنتاج محتوى جنسي يخص القصر أو تشجيع الأذى الذاتي أو الهوس أو الأوهام، وستتعاون هذه التحديثات مع نموذج لتحديد عمر المستخدم، لتفعيل تدابير حماية المراهقين تلقائيا.
وبالمقارنة مع البالغين، تخضع النماذج لقواعد أكثر صرامة مع المراهقين، حيث يمنع عليها الانخراط في محاكاة أدوار رومانسية أو حميمة أو محتوى عنيف أو جنسي بصيغة الشخص الأول، حتى لو كان غير صريح.
كما توصي الإرشادات بالحذر عند الحديث عن صورة الجسم والسلوكيات الغذائية المضطربة، مع إعطاء الأولوية للسلامة على الاستقلالية، وتجنب تقديم نصائح تساعد المراهقين على إخفاء السلوكيات الخطرة عن الأهل.
حتى عند صياغة الطلبات بطريقة “خيالية، افتراضية، تاريخية أو تعليمية”، تظل هذه القيود سارية، لتجنب محاولات تجاوز السياسات عبر تمثيل الأدوار أو سيناريوهات حافة.
المبادئ الأربعة لسلامة المراهقين
– السلامة أولا: حماية المراهقين أولوية حتى مع التضارب مع حرية الاستكشاف الفكري.
– الدعم الواقعي: توجيه المراهقين نحو الأهل والأصدقاء والمتخصصين المحليين.
– التعامل مع المراهقين كمراهقين: استخدام لغة دافئة ومحترمة، وليس التحدث إليهم كالبالغين.
– الشفافية: توضيح قدرات المساعد وحدودها، مع تذكير المراهقين أنه ليس بشريا.
كما تتضمن الأمثلة رفض الروبوت الانخراط في أدوار مثل “التظاهر كصديق/ة” أو تقديم نصائح خطرة لتغيير المظهر.
التحديات والتطبيق العملي
رغم التحديثات، يبقى التطبيق العملي تحديا، خصوصا مع سلوك “التملق” أو الإفراط في الموافقة على المستخدم، الذي لوحظ في نسخ سابقة من ChatGPT.
كما أشار بعض الخبراء إلى تناقضات محتملة بين مبادئ السلامة وضرورة التعامل مع أي موضوع دون استثناء، ما قد يدفع النظام نحو التفاعل على حساب الأمان.
الحوادث الواقعية، مثل حالة المراهق آدم راين، والتي أظهرت أن روبوت ChatGPT قد شارك في محاكاة الطاقة العاطفية للمستخدم، ما أسفر عن محادثات ضارة، رغم وجود آليات مراقبة لم تمنع استمرار التفاعل.
حاليا، تستخدم OpenAI مصنفات آلية لتقييم النصوص والصور والصوت بشكل فوري، مع مراجعة بشرية عند الاشتباه في مخاطر جدية، وقد يتم إشعار الأهل عند الحاجة.
الموارد الجديدة للآباء
كما أطلقت الشركة موارد تعليمية لتوعية الآباء حول الذكاء الاصطناعي، تشمل نصائح لبدء الحوار مع المراهقين، تحديد الحدود الصحية، وتعليم التفكير النقدي، لتشارك المسؤولية مع الأهل في متابعة استخدام المنصة.




اضف تعليقك