الذكاء الاصطناعي التوليدي: منظور العامل

Download PDF
Share

الذكاء الاصطناعي التوليدي: منظور العامل

الذكاء الاصطناعي التوليدي: منظور العامل

الوعود والمخاطر

Table of contents

1. ما هو الذكاء الاصطناعي التوليدي؟

يشير مصطلح الذكاء الاصطناعي التوليدي إلى مجموعة فرعية من الذكاء الاصطناعي تركز على إنشاء (أو توليد) بيانات أو محتوى أو معلومات جديدة تحاكي المخرجات البشرية. وبدلاً من مجرد معالجة البيانات أو أداء مهام محددة مسبقًا، يمكن للذكاء الاصطناعي التوليدي توليد النصوص والصور والموسيقى والرموز وحتى مقاطع الفيديو. هذه الفئة من الذكاء الاصطناعي قوية بشكل خاص لأنها لا تكتفي بتعلم الأنماط أو تحليل المعلومات الموجودة - بل تنتج محتوى جديدًا بناءً على الأنماط التي تعلمتها من بيانات التدريب الخاصة بها.

أحد أشهر الأمثلة على الذكاء الاصطناعي التوليدي هو سلسلة OpenAI's Chat GPT، والتي يتم تدريبها على كميات هائلة من البيانات النصية ويمكنها توليد المقالات والإجابة على الأسئلة وكتابة الشعر وحتى المشاركة في المحادثة. تشمل الأدوات البارزة الأخرى DALL-E (التي تولد صورًا من النصوص)، و Anthropic (لسلامة الذكاء الاصطناعي  المُوَلِّد وقابلية الشرح)، و Hugging Face (من أجل تطوير الذكاء الاصطناعي التوليدي بمشاركة المجتمع) و Midjourney (لإنتاج محتوى مرئي).


2. كيف يعمل الذكاء الاصطناعي التوليدي؟

يعمل الذكاء الاصطناعي التوليدي من خلال الجمع بين خوارزميات التعلم الآلي (ML) وكميات هائلة من بيانات التدريب. من صميم الذكاء الاصطناعي التوليدي توجد نماذج مثل الشبكات العصبية، وتحديداً بنى التعلم العميق وصُممت هذه الشبكات لمحاكاة عمل الدماغ، بما في ذلك أنماط التعلُّم أو التنبؤ أو توليد معلومات جديدة بناءً على المدخلات السابقة.

وتعتمد معظم نماذج الذكاء الاصطناعي التوليدي على خوارزميات التعلم غير الخاضعة للإشراف. وعلى عكس خوارزميات التعلم الخاضعة للإشراف، والتي تعتمد على البيانات المصنفة لمحاولة توجيه أنظمة الذكاء الاصطناعي نحو المخرجات المرغوبة، تتطلب خوارزميات التعلم غير الخاضعة للإشراف كميات كبيرة من البيانات غير المصنفة لتلقيمها في النماذج. وبناء على هذا تتعلم أنظمة الذكاء الاصطناعي التوليدي توليد محتوى مشابه دون أن تتم برمجتها بشكل واضح وصريح. في الذكاء الاصطناعي القائم على النصوص، على سبيل المثال، يتم تدريب النماذج باستخدام مجموعة بيانات ضخمة من الكتب والمواقع الإلكترونية والمقالات. ومن خلال تحليل هذه البيانات، تتعلم أنظمة الذكاء الاصطناعي القواعد النحوية والسياق والنبرة وغيرها من الجوانب الدقيقة للغة.

وهناك عنصران مهمان في كيفية عمل نماذج الذكاء الاصطناعي التوليدي هما

  • مرحلة التدريب: خلال هذه المرحلة، يتم تغذية النموذج بكميات هائلة من البيانات. ويتعلم التعرف على الأنماط والتراكيب والعلاقات في البيانات.

  • مرحلة الاستدلال: عندما يتم وضع النموذج موضع التنفيذ، يقوم بإنشاء محتوى جديد من خلال التنبؤ بما يجب أن يأتي بعد ذلك بناءً على المطالبة أو المدخلات التي يقدمها المستخدم.

من المهم معرفة أن هذه الأنظمة تغذيها كميات هائلة من الطاقة. ففي غضون السنوات الست القادمة، قد تستهلك مراكز البيانات المطلوبة لتطوير وتشغيل أنواع نماذج الجيل التالي من الذكاء الاصطناعي التي تستثمر فيها مايكروسوفت طاقة أكبر من الطاقة التي تستهلكها الهند بأكملها. وسيتم تبريدها بملايين وملايين اللترات من المياه.

شاهد هذه الفيديوهات القصيرة حول الذكاء الاصطناعي التوليديونماذج اللغات الكبيرة  (نماذج اللغات الكبيرة (LLMs) هي نوع محدد من الذكاء الاصطناعي التوليدي يركز على فهم وإنشاء  نصوص شبيهة بالنصوص البشرية). إذا كنت ترغب في التعمق شاهد هذا الفيديو. (ملاحظة: يمكنك اختيار الترجمة بالعديد من اللغات).



3. حالات الاستخدام في الخدمات العامة

يجد الذكاء الاصطناعي التوليدي مكانه في مجموعة واسعة من قطاعات الخدمات العامة، من الصحة والتعليم إلى العمل الإداري وإنفاذ القانون. فيما يلي بعض حالات الاستخدام:

  • الرعاية الصحية: يُستخدم الذكاء الاصطناعي التوليدي في إنشاء تقارير صحية مخصصة، أو حث الأطباء على طلب معلومات معينة من المرضى أثناء زيارات العيادة، أو مساعدة الأطباء في التشخيص. على سبيل المثال، يمكن لأدوات الذكاء الاصطناعي توليد ملخصات من السجلات الطبية، والتوصية بالعلاجات بناءً على الأعراض، وإنشاء نماذج تنبؤية لنتائج المرضى. ويُعد نظام واتسون من شركة آي بي إم أحد أنظمة الذكاء الاصطناعي التي تم استخدامها في طب الأورام لتقديم توصيات العلاج.

  • التعليم: في المدارس، يمكن للذكاء الاصطناعي مساعدة المعلمين من خلال إنشاء خطط للدروس، أو إنشاء اختبارات مؤتمتة، أو حتى تقديم دروس خصوصية للطلاب. بدأت أدوات مثل أكاديمية خان في دمج الذكاء الاصطناعي التوليدي في منصاتها لمساعدة الطلاب في حل المشكلات في الوقت الفعلي.

  • الحكومة والإدارة: يمكن للخدمات العامة، مثل إدارة المدينة أو الرفاهية العامة، استخدام الذكاء الاصطناعي لإنشاء التقارير، والرد على استفسارات الجمهور، وتحديد كيفية توزيع المنافع العامة، أو حتى أتمتة المهام الأساسية مثل إنشاء النماذج. قد تستخدم إدارة المدينة الذكاء الاصطناعي للتنبؤ باحتياجات النقل العام والاستجابة لها، أو إنشاء نماذج ضريبية تلقائيًا بناءً على مدخلات المستخدم.

  • إنفاذ القانون: يُستخدَم الذكاء الاصطناعي في جميع أنحاء العالم لمساعدة جهات إنفاذ القانون من خلال إنشاء التقارير وتحليل أنماط الجريمة والتنبؤ بوقوع الجرائم في المستقبل، أو حتى صياغة الوثائق القانونية.

  • خدمة العملاء: تستخدم العديد من المؤسسات التي تتعامل مع الجمهور الآن روبوتات الدردشة التي تعتمد على الذكاء الاصطناعي لتزويد المواطنين بردود فورية على استفساراتهم. على سبيل المثال، يمكن للحكومات المحلية استخدام الذكاء الاصطناعي التوليدي لإنشاء مساعدين افتراضيين يجيبون على الأسئلة المتعلقة بالخدمات العامة مثل إدارة النفايات أو دفع الضرائب.


4. لماذا تستخدم الخدمات العامة الذكاء الاصطناعي التوليدي؟

بما أن العديد من الخدمات العامة تعاني من ضائقة مالية، فقد تميل إلى استخدام الذكاء الاصطناعي التوليدي للأسباب التالية

  • زيادة الكفاءة: يمكن للذكاء الاصطناعي التوليدي أتمتة المهام المتكررة، مما يسمح للعاملين بالتركيز على أعمال أكثر تعقيداً وذات مغزى. على سبيل المثال، يمكن لأداة الذكاء الاصطناعي إنشاء تقارير أو الإجابة على استفسارات المواطنين، والتي قد تستغرق ساعات من العمل اليدوي.

  • توفير التكاليف: من خلال تقليل الحاجة إلى العمال لأداء المهام التي تتطلب عمالة مكثفة، يمكن للذكاء الاصطناعي التوليدي خفض التكاليف التشغيلية. يمكن للحكومات إعادة تخصيص الميزانيات من تكاليف الموظفين إلى أجزاء أخرى من خدماتها.

  • تعزيز الإبداع: يمكن للذكاء الاصطناعي أن يساعد في حل المشاكل بطريقة إبداعية من خلال توليد حلول أو أفكار متعددة للمشاكل المعقدة. على سبيل المثال، يمكن أن يساعد مخططي المدن على ابتكار تصميمات جديدة للأماكن العامة أو مساعدة صانعي السياسات في صياغة تشريعات جديدة.

  • معالجة البيانات واتخاذ القرارات: يمكن للذكاء الاصطناعي التوليدي تحليل كميات هائلة من البيانات وتوليد رؤى قابلة للتنفيذ، مما قد يحسن عملية صنع القرار العام. على سبيل المثال، يمكن أن يساعد العاملين في مجال الرعاية الصحية في تحليل الاتجاهات الصحية للسكان أو صياغة استجابات مناسبة للصحة العامة.

  • إضفاء الطابع الشخصي على الخدمات: في قطاعات مثل التعليم والرعاية الصحية، يمكن للذكاء الاصطناعي التوليدي تخصيص الخدمات بناءً على احتياجات الأفراد. يمكن للذكاء الاصطناعي أن يساعد في تخصيص تجارب التعلم أو تخصيص العلاجات الطبية للمرضى الأفراد.


5. مشاكل الذكاء الاصطناعي التوليدي في الخدمات العامة

على الرغم من أن الذكاء الاصطناعي التوليدي يمكن أن يقدم بعض الفوائد، إلا أنه يطرح أيضًا تحديات كبيرة، خاصة عند استخدامه في الخدمات العامة. فيما يلي تحليل موسع لمجالات المشاكل المحتملة، بدءًا من المخاوف الأخلاقية إلى القيود التقنية

انقر على موضوع للتوسع

النزوح الاقتصادي ونزوح القوى العاملة


يمكن استخدام الأدوات التوليدية كمساعدات لتعزيز الإبداع البشري، لكنها يمكن أن تُستخدم أيضًا لأتمتة بعض أنواع العمل. هناك العديد من التساؤلات المفتوحة حول المهام التي سيكون من السهل أتمتتها، وما إذا كانت هذه الأتمتة ستؤدي إلى تقليل عدد الوظائف الإجمالي، أو إلى تغيير عميق في كيفية تقدير بعض أنواع العمل، أو إعادة هيكلة القوى العاملة مع خلق وظائف جديدة. على سبيل المثال، يمكن لموظف في الخدمة العامة مسؤول عن التواصل أن (1) إما أن يفقد وظيفته لأن الإدارة قررت السماح للذكاء الاصطناعي التوليدي بكتابة البيانات الصحفية (2) يواجه تخفيضًا في الراتب بسبب زيادة المنافسة (من قبل الآلات) في السوق أو؛ (3) لم يعد يكتب يدويًا بنفس القدر، بل يصبح مسؤولاً عن إنتاج النصوص النهائية باستخدام الذكاء الاصطناعي أو ربما التحقق من صحة النصوص التي ينتجها الذكاء الاصطناعي.

قد يؤدي الذكاء الاصطناعي التوليدي إلى تغييرات كبيرة في القوى العاملة في القطاع العام، مع احتمالية فقدان الوظائف الذي يُعد مصدر قلق رئيسي.

  • فقدان الوظائف في قطاعات معينة: مع تولي الذكاء الاصطناعي التوليدي مهام مثل كتابة التقارير وصياغة الوثائق القانونية وخدمة العملاء، قد تكون العديد من الوظائف في القطاع العام معرضة للخطر. يمكن أتمتة الأدوار الكتابية والإدارية وحتى بعض الأدوار المهنية، مما يؤدي إلى فقدان الوظائف وحدوث اضطرابات اقتصادية.

  • التحويل في متطلبات المهارات: من المرجح أن يغير الذكاء الاصطناعي طبيعة العمل في القطاع العام. قد يحتاج العمال إلى اكتساب مهارات جديدة في الإشراف على الذكاء الاصطناعي، وإدارة البيانات، أو الامتثال الأخلاقي. قد يؤدي ذلك إلى خلق فجوة بين من يتمكنون من تطوير مهاراتهم ومن يتخلفون عن الركب.

المساءلة والافتقار إلى الشفافية

يُنظر إلى اتخاذ القرارات بواسطة الذكاء الاصطناعي غالبًا على أنه "صندوق أسود"، حيث تكون العمليات الداخلية للنظام غامضة حتى بالنسبة لأولئك الذين يصممونه ويستخدمونه. يمكن أن تكون هذه الشفافية المحدودة مشكلة في الخدمات العامة، حيث تُعد المساءلة أمرًا بالغ الأهمية:

اتخاذ القرارات غير الواضح: عندما يتم استخدام الذكاء الاصطناعي لاتخاذ القرارات أو المساهمة فيها — مثل تخصيص الإسكان العام أو تحديد الأهلية للحصول على الخدمات الاجتماعية — قد يكون هناك القليل من الوضوح حول كيفية اتخاذ هذه القرارات. يمكن أن يؤدي ذلك إلى تآكل الثقة العامة، خاصةً إذا شعر المواطنون أنهم يُعاملون بشكل غير عادل من قبل نظام ذكاء اصطناعي لا يفهمونه.

محدودية الإجراءات القانونية: إذا ارتكب نظام ذكاء اصطناعي خطأً يضر بمواطن — مثل رفض مخصص أو تصنيف شخص بشكل خاطئ في قاعدة بيانات إنفاذ القانون — فقد يكون من الصعب تحديد المسؤولية القانونية. هل يجب أن يقع اللوم على بائع الذكاء الاصطناعي، أو المؤسسة العامة التي تستخدم النظام، أم على صانعي السياسات الذين وافقوا على استخدامه؟

غياب الرقابة البشرية والاعتماد المفرط على الذكاء الاصطناعي

الذكاء الاصطناعي التوليدي هو أداة قوية، لكن هناك خطر أن تعتمد الخدمات العامة عليه بشكل مفرط، مما يؤدي إلى نقص في الإشراف البشري الحاسم في عملية اتخاذ القرارات:

  • أتمتة الأدوار التي تركز على الإنسان: إذا تم استخدام الذكاء الاصطناعي التوليدي لأتمتة المهام التي تتطلب التعاطف والفهم البشري — مثل العمل الاجتماعي، أو الإرشاد، أو الفرز في مجال الرعاية الصحية — فقد يؤدي ذلك إلى تفاعلات غير شخصية، أو غير ملائمة، أو حتى ضارة. على سبيل المثال، قد يؤدي استخدام الذكاء الاصطناعي لتقييم طلبات الرعاية الاجتماعية دون مراجعة بشرية إلى رفض خدمات أساسية لأشخاص يعانون من تحديات فريدة.

  • تآكل المهارات: قد يؤدي الاعتماد المفرط على الذكاء الاصطناعي إلى تراجع في الخبرة والحكم البشري في المجالات الحيوية. قد يفقد العاملون مهاراتهم وخبراتهم إذا اعتمدوا بشكل مفرط على الحلول التي ينتجها الذكاء الاصطناعي دون فهم كامل للقضايا أو السياق الكامن وراءها.

التحيز والتمييز

تُدرَّب أنظمة الذكاء الاصطناعي التوليدي على مجموعات بيانات ضخمة غالبًا ما تعكس تحيزات تاريخية. عندما تحتوي هذه المجموعات على معلومات متحيزة — سواء كانت تتعلق بالعرق أو الجنس أو الحالة الاجتماعية والاقتصادية أو أي سمة أخرى — تميل نماذج الذكاء الاصطناعي إلى إلى إدامة هذه التحيزات بل وتضخيمها في الخدمات العامة ويمكن أن يكون لذلك عواقب وخيمة على سبيل المثال:

  • التحيز العرقي أو الجنسي في اتخاذ القرارات: بينما تتعلم أنظمة الذكاء الاصطناعي التعرف على الأنماط في مجموعات البيانات غير المنظمة، قد تحدد أنماطًا بناءً على متغيرات تتعلق بميزات الهوية المحمية بموجب تشريعات مكافحة التمييز. مثالان شائعان هما العرق والجنس. قد تظهر أنظمة الذكاء الاصطناعي المستخدمة في إنفاذ القانون، أو النظام القضائي الجنائي، تحيزًا عرقيًا في توقعاتها، كما هو الحال في بعض أدوات التنبؤ بالجرائم. أو قد تفضل أنظمة الذكاء الاصطناعي المستخدمة في التوظيف في الوظائف العامة المرشحين الذكور على الإناث إذا كانت بيانات التدريب تعكس اختلالات تاريخية بين الجنسين.

  • تخصيص الرعاية الاجتماعية بشكل تمييزي: قد تميز أنظمة الذكاء الاصطناعي المستخدمة لتخصيص المنافع الاجتماعية أو الإسكان العام ضد المجتمعات المهمشة إذا كانت البيانات التي تعتمد عليها مُنحازة. على سبيل المثال، إذا أظهرت البيانات التاريخية أن بعض الفئات السكانية كانت أقل احتمالًا لتلقي المنافع، قد يستمر الذكاء الاصطناعي بشكل غير عادل في هذا النمط.

يتطلب معالجة التحيز تدقيقًا مستمرًا وإعادة تدريب نماذج الذكاء الاصطناعي على مجموعات بيانات متنوعة. ومع ذلك، قد تعتقد بعض الخدمات العامة أن هذا مكلف ويستغرق وقتًا طويلاً، خاصةً إذا كانت الموارد محدودة. بالإضافة إلى ذلك، قد لا توجد مجموعات بيانات متنوعة أو قد لا تكون ملائمة للسياسة المناسبة للاستخدام المقصود من النظام. في العديد من الحالات، ستحتاج الخدمة العامة المعنية إلى تجاوز نظام الذكاء الاصطناعي يدويًا للحد من إنتاج مواد ضارة، لكن هذه الأنواع من التدخلات تكون بالضرورة هشة وغير مثالية. بالفعل تحدث العاملون في الخدمات العامة في المملكة المتحدة عن الحاجة المستمرة لتجاوز النظام لتجنب الإضرار بالمواطنين.

عدم الحساسية الثقافية والافتقار إلى الفهم السياقي

تُدرَّب نماذج الذكاء الاصطناعي التوليدي غالبًا على مجموعات بيانات قد تختلف عن السياق الذي يُستخدم فيه النظام. عندما يتم نشر نظام تم تطويره في سياق معين في مكان آخر، قد يُنتج تفسيرات ثقافية أو قيمًا أو يظهر حساسيات تُعتبر غير مناسبة أو غير ملائمة. وتصبح هذه المشكلة أكثر تعقيدًا عندما تُدرَّب نماذج الذكاء الاصطناعي على مجموعات بيانات عالمية، بينما تُستخدم في خدمة فئات سكانية محددة. ويُعتبر هذا أمرًا مهمًا في المجتمعات متعددة الثقافات حيث يجب أن تلبي الخدمات العامة احتياجات مجموعات متنوعة، وعبر المناطق الجغرافية حيث تُستخدم الأنظمة التي تم تدريبها على بيانات العالم الغربي في مناطق أخرى:

  • خدمات الترجمة غير الدقيقة: قد تواجه أدوات الترجمة المعتمدة على الذكاء الاصطناعي المستخدمة في الخدمات العامة صعوبة في التعامل مع التعابير الثقافية، أو اللهجات المحلية، أو استخدام اللغة وفقًا للسياق، مما يؤدي إلى حدوث سوء فهم. على سبيل المثال، قد تفشل أداة الذكاء الاصطناعي التوليدي في ترجمة الوثائق الحكومية بشكل صحيح، مما يُهمل الأهمية الثقافية لبعض المصطلحات.

  • رسائل عامة غير حساسة: عندما يُستخدم الذكاء الاصطناعي التوليدي لتوليد الاتصالات الموجهة للجمهور، مثل الإعلانات الحكومية أو حملات الصحة العامة، هناك خطر أن تكون الرسائل غير مناسبة ثقافيًا أو غير ملائمة. على سبيل المثال، قد يسيء نظام الذكاء الاصطناعي التوليدي المستخدم لإنشاء محتوى لحملة صحية عامة عن غير قصد إلى بعض المجتمعات الدينية أو العرقية إذا لم يفهم عاداتهم.

  • حواجز لغوية: قد لا تفهم الدردشة الآلية المدعومة بالذكاء الاصطناعي أو أنظمة خدمة العملاء المنتشرة في الخدمات العامة اللهجات الإقليمية أو اللغات الأقل شيوعًا بشكل دقيق. على سبيل المثال، في الهند، حيث تُتحدث العديد من اللغات، قد يفضل خدمة الذكاء الاصطناعي الهندية أو الإنجليزية، مما يترك المتحدثين بلغات أقل شيوعًا في وضع غير ملائم.

  • سوء تفسير الممارسات الثقافية: قد يُسئ استخدام الذكاء الاصطناعي في أنظمة الرعاية الصحية أو القانونية تفسير الممارسات التقليدية، مما يؤدي إلى نصائح أو قرارات سيئة. على سبيل المثال، إذا تم برمجة ذكاء اصطناعي في الرعاية الصحية العامة استنادًا إلى الممارسات الطبية الغربية، فقد يتجاهل الممارسات العلاجية التقليدية أو الثقافية، مما يجعل المجموعات الأقلية تشعر بعدم الفهم أو المعاملة السيئة.

  • االتمييز النمطي: نظرًا لأن الذكاء الاصطناعي التوليدي يُدرَّب على مجموعات بيانات ضخمة تتضمن محتوى متحيز أو نمطي، فإنه يمكن أن يعزز أو حتى يضخم الصور النمطية الثقافية الضارة عند التفاعل مع أشخاص من مناطق مختلفة. على سبيل المثال، إذا طُلب من الذكاء الاصطناعي توليد صور أو أوصاف لجنسيات معينة، فقد ينتج صورًا مبالغ فيها أو نمطية استنادًا إلى بيانات قديمة أو متحيزة.

  • التحيز في السياق التاريخي أو الاجتماعي: قد تُقدم نماذج الذكاء الاصطناعي التوليدي المدربة على مجموعات بيانات معينة الأحداث التاريخية أو القضايا الاجتماعية من منظور ضيق، مما يؤدي غالبًا إلى إغفال أو تشويه وجهات النظر الثقافية المهمة من مناطق أخرى.

التلفيق والتضليل

تُعرف أنظمة الذكاء الاصطناعي التوليدي أيضًا بأنها تنتج بانتظام معلومات مختلقة أو غير صحيحة تمامًا، والتي قد تبدو معقولة ولكنها غير دقيقة من الناحية الفعلية. يُعرف هذا باسم "التلفيق" أو "التخيل." ويمكن أن يكون هذا مشكلة في الخدمات العامة حيث تكون الدقة أمرًا بالغ الأهمية، على سبيل المثال:

  • وثائق قانونية خاطئة: إذا تم استخدام الذكاء الاصطناعي في توليد الوثائق القانونية أو تقديم المشورة في الإدارة العامة، فإن التخيلات قد تؤدي إلى استنتاجات قانونية معيبة أو وثائق غير صحيحة، مما يسبب أضرارًا للأفراد أو يؤدي إلى تأخير في الإجراءات القانونية.

  • نصائح طبية مضللة: في مجال الرعاية الصحية، يمكن للذكاء الاصطناعي التوليدي أن يختلق معلومات قد تؤدي إلى علاجات غير ملائمة أو تشخيصات خاطئة. تخيل وجود روبوت دردشة في الصحة العامة يقدم المشورة للمواطنين بناءً على معلومات خاطئة أو غير مكتملة—قد يُعرض هذا الصحة العامة للخطر.

الاستدامة والأثر البيئي

تكاليف تشغيل وتدريب نماذج الذكاء الاصطناعي الضخم من الناحية البيئية هائلة. تتطلب أنظمة الذكاء الاصطناعي التوليدي، خاصة نماذج اللغة الضخمة مثل ChatGPT، موارد حوسبة كبيرة تستهلك كميات ضخمة من الطاقة:

  • بصمة كربونية عالية: الطاقة الحاسوبية اللازمة لتدريب وصيانة نماذج الذكاء الاصطناعي التوليدي قد تترك بصمة كربونية كبيرة. يجب على المؤسسات العامة أن توازن بين التكلفة البيئية لتطبيق أنظمة الذكاء الاصطناعي الضخم وبين التزامات الحكومة الأوسع لتقليل انبعاثات الكربون.

  • كثافة الموارد: الأجهزة المطلوبة لتشغيل الذكاء الاصطناعي—مثل الخوادم عالية الأداء وأنظمة التبريد—تحتاج إلى كثافة الاستخدام للموارد. قد يؤدي ذلك إلى زيادة الضغط على الميزانيات العامة والبنية التحتية، خاصة في المناطق التي تفتقر إلى القدرات التكنولوجية المتقدمة.

انتهاكات الخصوصية ومخاطر أمن البيانات

عادةً ما يتم تدريب نماذج الذكاء الاصطناعي التوليدي على مجموعات بيانات ضخمة، قد تحتوي بعضها على معلومات شخصية حساسة. في الخدمات العامة، حيث تُكلف أنظمة الذكاء الاصطناعي غالبًا بالتعامل مع بيانات سرية (مثل السجلات الصحية، معلومات الضمان الاجتماعي، أو الملفات القانونية)، تكون مخاوف الخصوصية في غاية الأهمية:

  • اختراق البيانات: قد تكشف أنظمة الذكاء الاصطناعي عن طريق الخطأ بيانات حساسة. على سبيل المثال، إذا تم استخدام نظام ذكاء اصطناعي توليدي للمساعدة في إدارة الحالات في الخدمات الاجتماعية، فقد ينتج محتوى يكشف عن معلومات خاصة حول الأفراد دون موافقتهم.

  • خطر إعادة التعرف: حتى مجموعات البيانات المجهولة يمكن أن تشكل خطرًا على الخصوصية إذا كانت نماذج الذكاء الاصطناعي قادرة على "إعادة التعرف" على الأفراد بناءً على أنماط في البيانات. يمكن أن يكون هذا إشكاليًا بشكل خاص في الصحة العامة، حيث قد تكشف البيانات المتعلقة بتفشي الأمراض عن تفاصيل شخصية للمرضى بشكل غير مقصود.

شواغل الملكية الفكرية (IP)

تقوم أنظمة الذكاء الاصطناعي التوليدي غالبًا بإنشاء محتوى جديد—سواء كان نصًا أو صورًا أو حتى موسيقى—من خلال استخدام وتحويل أعمال موجودة. في الخدمات العامة، حيث يتم إنتاج محتوى مثل الوثائق العامة، التقارير، والمواد التعليمية، يثير هذا تساؤلات حول حقوق الملكية الفكرية:

  • انتهاك حقوق الطبع والنشر: قد تقوم أدوات الذكاء الاصطناعي التوليدي دون قصد بإنشاء محتوى يشبه إلى حد كبير الأعمال المحمية بحقوق الطبع والنشر، مما قد يؤدي إلى نزاعات قانونية محتملة. على سبيل المثال، إذا أنشأ نظام ذكاء اصطناعي صورة أو شعارًا لحملة عامة يشبه إلى حد كبير شعارًا أو عبارة تجارية، فقد تتحمل المؤسسات العامة المسؤولية عن التعدي على حقوق الطبع والنشر.

  • ملكية المحتوى المولَّد بواسطة الذكاء الاصطناعي: في سياق الخدمات العامة، قد يكون تحديد من يمتلك حقوق المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي منطقة قانونية غامضة. هل تمتلك الحكومة حقوق التقارير أو الوثائق التي ينتجها الذكاء الاصطناعي، أم أن مالك الذكاء الاصطناعي الأصلي هو الذي يمتلك هذه الحقوق؟ لا تزال الأطر القانونية الواضحة في طور التطور، لكن المؤسسات العامة يجب أن تكون حذرة في التعامل مع هذه المسألة.


6. نصائح للعاملين في الخدمات العامة

في الوقت الذي لا يزال فيه مجال الذكاء الاصطناعي التوليدي في طور النشوء، ولا تزال الاستجابات التنظيمية معلقة، نود أن نقدم بعض الاستجابات المرنة والمتغيرة وغير الحصرية التي يمكن للعاملين في القطاع العام تبنيها.

قبل إدخال الذكاء الاصطناعي التوليدي في مكان العمل، يجب أن يطالب العاملون بالتواصل الواضح والشفافية والضمانات من الإدارة لضمان نشر التكنولوجيا بشكل أخلاقي وآمن وعادل.

ولكن أولاً - كفرد تذكر ما يلي:

  • لا تقم أبدًا بتحميل مواد حساسة على هذه الأنظمة. ويشمل ذلك مجموعات البيانات التي تتضمن بيانات شخصية أو معلومات تعريف شخصية، وملفات القضايا وما شابه ذلك. من المهم أن تتذكر أن هذه الأنظمة تم تطويرها من قبل شركات خاصة. بمجرد تحميل البيانات، تصبح ملكاً لهم.

  • لا تثق أبدًا بالمخرجات. تحقق دائمًا من النتائج التي تتلقاها - تحقق من الحقائق و من صحة أي محتوى من مصادر موثوقة.

  • ضع في اعتبارك الأثر البيئي لاستخدام هذه الأنظمة بشكل غير ضروري.

في بيئة عملك، حاول أن تحصل على ما يلي قبل أن تقبل استخدام الذكاء الاصطناعي التوليدي في العمل:

قيام الإدارة، بالتشاور معك، بوضع سياسة داخلية محددة بوضوح تحكم كيفية استخدام الذكاء الاصطناعي التوليدي في مكان العمل. يجب أن يغطي ذلك موضوعات مثل:

  • اشتراط عدم تحميل المواد الحساسة على هذه الأنظمة. ويشمل ذلك مجموعات البيانات التي تتضمن بيانات شخصية أو معلومات تعريف شخصية، وملفات القضايا وما شابه ذلك.

  • صياغة تضمن أن العمال لن يُطلب منهم استخدام بريدهم الإلكتروني الشخصي لإنشاء حساب لأغراض العمل.

  • "ضمانة عدم فقدان الوظائف": أي أن إدخال الذكاء الاصطناعي لن يؤدي إلى فقدان فوري للوظائف

  • تعليمات واضحة بشأن من يمكنه استخدام الذكاء الاصطناعي، وكيف سيتم دمجه في إجراءات العمل، ونوع المهام المسموح له بالمساعدة فيها، وخطة لرفع مهارات/إعادة تأهيل العمال في وقت العمل

  • خطة تدريب لضمان فهم العمال لما يمكن للذكاء الاصطناعي القيام به وما لا يمكن للذكاء الاصطناعي القيام به لتجنب سوء الفهم حول تأثيره المحتمل وأدائه.

  • صياغة تحدد الضمانات في حال تغيير ظروف العمل.

  • معلومات لجميع العمال بلغة واضحة حول طبيعة الأنظمة المستخدمة والغرض منها

  • ضمانات خصوصية واضحة، على سبيل المثال فيما يتعلق باستخدام البيانات المسجلة حول وقت استخدام نظام الذكاء الاصطناعي التوليدي، ولأي أغراض ومن قبل من يمكن استخدامها.

  • مبادئ التحكم البشري التي تضمن للعاملين الحق والوقت الكافي للتحقق من صحة المعلومات التي تنتجها أنظمة الذكاء الاصطناعي التوليدي

  • سياسات واضحة حول كيفية حماية البيانات وتخزينها واستخدامها إذا استخدمت الإدارة الذكاء الاصطناعي التوليدي لمعالجة بيانات الموظفين. ويشمل ذلك المعلومات الشخصية والاتصالات التي قد يتم تحليلها بواسطة الذكاء الاصطناعي التوليدي.

  • استراتيجيات التخفيف من التحيز، بما في ذلك كيفية ضمان الإدارة ألا تعزز أنظمة الذكاء الاصطناعي التوليدي التحيزات القائمة، خاصة في عمليات صنع القرار التي تؤثر على العاملين و/أو الجمهور.

  • هياكل المساءلة: يجب على الإدارة إنشاء هياكل للمساءلة، بحيث يكون من الواضح من المسؤول عن القرارات التي يتم اتخاذها باستخدام مدخلات الذكاء الاصطناعي. يجب أن يعرف العاملون والجمهور أين يمكنهم التعبير عن مخاوفهم إذا كان الذكاء الاصطناعي يرتكب أخطاء أو يتسبب في ضرر. تحقيقاً لهذه الغاية، إنشاء نظام للإبلاغ عن المخالفات (للإبلاغ الآمن)

  • المحاسبة البيئية

  • آليات التظلم لتمكين معالجة المشاكل في وقت مبكر قبل تفاقمها وكذلك المساعدة في تحديد الأنماط مع مرور الوقت

  • العناية الواجبة بسلسلة التوريد (مثل ضمان أن يتم دفع أجور معيشية لجميع العمال المشاركين في تطوير ومراقبة أنظمة الذكاء الاصطناعي التوليدي، بما في ذلك مراجعي البيانات، ومشرفي المحتوى، والعمال المتعاقدين، وفقًا لمستوى المعيشة في منطقتهم).

  • يجب أن تكون المواد التي يولدها الذكاء الاصطناعي بالتعاون مع العمال أو تحت إشرافهم مملوكة بشكل مشترك للعامل (العمال) والخدمة العامة. يحتفظ العمال بحقوق الملكية الجزئية، خاصةً عندما يؤثر إبداعهم أو خبرتهم أو معرفتهم بشكل كبير على مخرجات الذكاء الاصطناعي.

  • أي مواد أو تعليمات أو بيانات أو مواصفات يقدمها العمال لتوجيه نظام الذكاء الاصطناعي سيتم الاعتراف بها كملكية فكرية لهم. ويجب أن يكون للعمال الحق في الحصول على الاعتراف كمشاركين في إنشاء أي محتوى ناتج عن الذكاء الاصطناعي يعتمد على مساهماتهم.

  • إذا أسفرت المواد الناتجة عن الذكاء الاصطناعي عن مكاسب تجارية أو فوائد أخرى، يحق للعمال الحصول على حصة عادلة من الأرباح أو الفوائد الأخرى تتناسب مع مساهماتهم. ويجب إنشاء آليات شفافة لتقاسم الأرباح أو أي وسائل أخرى لإعادة توزيع المكاسب على القوة العاملة.

  • ضمان أن يتم مراجعة السياسات بانتظام بمشاركة الموظفين لضمان بقائها ملائمة مع تطور الذكاء الاصطناعي وتغير دوره في مكان العمل.

ملاحظة: إذا لم يكن لديك الحق القانوني في المشاورة أو لم يتم ضمان ذلك في اتفاقيتك الجماعية، فاستخدم حقك في التفاوض للحصول على الحق في المشاورة قبل أن تقوم الإدارة بتقديم أنظمة الذكاء الاصطناعي التوليدي، وحاول تضمين أكبر عدد ممكن من العناصر الواردة في النقطة 1 أعلاه.

يمكنك أيضًا إثارة النقاط التالية مع الإدارة

يجب أن تكون الإدارة قادرة على إثبات أنها تفي بجميع الالتزامات القانونية، مثل تلك المتعلقة بالصحة والسلامة، وحماية البيانات (بما في ذلك تقييمات الأثر)، والمساواة وقانون حقوق الإنسان.

أن تقوم الإدارة بإجراء عمليات تدقيق منتظمة للنظام بالتعاون معك/مع نقابتك.

يجب أن تضمن الإدارة الممارسات غير التمييزية: يجب أن يخضع استخدام الذكاء الاصطناعي للتدقيق الدقيق من أجل تحقيق العدالة وعدم التمييز.

الشفافية في اتخاذ قرارات الذكاء الاصطناعي: يجب أن يكون للجمهور الحق في معرفة متى تم إشراك الذكاء الاصطناعي في قرارات مثل تقييمات الرعاية الاجتماعية أو إنفاذ القانون أو استجابات الصحة العامة. يجب أن تظل الخدمة العامة شفافة ومسؤولة أمام العاملين والجمهور.


7. الخاتمة

هناك خطر كبير يتمثل في أن استخدام أنظمة الذكاء الاصطناعي من قبل الخدمات العامة لن يؤدي إلا إلى مساعدة شركات التكنولوجيا الكبرى على تعزيز سلطتها. إن سيطرة الشركات على الخدمات العامة منتشرة بالفعل على نطاق واسع، ويحفزها الدفع المتزايد لدمج الأنظمة الرقمية في كل شيء بدءًا من تقديم الخدمات الاجتماعية، إلى تقييم طلبات التوظيف، إلى صنع السياسات والديمقراطية. وإذا ما أضفنا ذلك إلى اتجاهات الخصخصة الشاملة وتزايد المشتريات العامة المعنية بتطوير القطاع الخاص للأنظمة الرقمية للخدمات العامة، ستتضح الصورة.

بالإضافة إلى ذلك، تسيطر شركات التكنولوجيا الكبرى على كميات هائلة من البيانات ليس فقط من خلال الخدمات العامة ولكن أيضًا من الخدمات التي تقدمها للشركات والجمهور. فهي تمتلك الوسائل المالية والقدرة الحاسوبية اللازمة لتشغيل أنظمة الذكاء الاصطناعي ولديها الخبرة التقنية المطلوبة للقيام بذلك.

ولحماية جودة الخدمات العامة والديمقراطية، من المناسب إذن أن تشارك نقابات الخدمة العامة في جميع أنحاء العالم في الدعوة إلى قانون وسياسات حوكمة شاملة للذكاء الاصطناعي. وينبغي أن تعزز هذه السياسات استقلالية الخدمة العامة وقدراتها للحد من العلاقات التبعية للمصالح التجارية؛ ومراجعة مطالب المشتريات العامة لتشمل المحاسبة على الأثر البيئي والاجتماعي؛ وحماية الوظائف عالية الجودة وإعادة توزيع الأرباح المحققة من التقنيات الرقمية على القوى العاملة؛ وضمان الشفافية والمساءلة في أنظمة الذكاء الاصطناعي؛ وتعزيز ملكية البيانات؛ وإدراج الحوكمة الشاملة الإلزامية لأنظمة الذكاء الاصطناعي، وغير ذلك الكثير.

يمكن توجيه العديد من هذه الدفعات السياسية من خلال المفاوضة الجماعية. ولتحقيق هذه الغاية، طورت مبادرة الأمن السيبراني ثلاث أدوات يمكن أن تكون مفيدة. الأولى هي مركز المفاوضة الرقمية. وهي قاعدة بيانات مفتوحة لبنود المفاوضة الجماعية والاتفاقيات الإطارية وما شابه ذلك من النقابات في جميع أنحاء العالم. ابقوا متابعين حيث تتفاوض النقابات حول استخدام الذكاء الاصطناعي التوليدي!

والثاني هو دليل الحوكمة المشتركة والثالث يسمى دورة حياة البيانات في العمل. كل هذه الثلاثة مهمة عند استخدام الإدارة لأنظمة الذكاء الاصطناعي التوليدي في اتخاذ قراراتها الإدارية بشأن العمال، وفي الخدمات التي تقدمها للجمهور.

Video

This 18min video covers key questions such as What is generative AI, how does it work, how do I use it, what are some of the risks & limitations. Also covers things like autonomous agents, the role of us humans, prompt engineering tips, AI-powered product development, origin of ChatGPT, different types of models, and some tips about mindset around this whole thing.

Generative AI in a Nutshell - how to survive and thrive in the age of AI

اقرأ المزيد

Welcome to our digitalisation page - where you can find our key publications, resources and news on how unions can shape the digital transformation in the interests of workers and public services.