
يستكشف مفهوم “الذكاء الاصطناعي المسؤول” في سياق التزايد السريع في عدد سكان العالم المتقدم في العمر والدور المتزايد للذكاء الاصطناعي في تعزيز الإنتاجية. في ظل هذا السياق، يحمل الذكاء الاصطناعي وعدًا مثيرًا ليكون الرافعة الكبيرة التالية للإنتاجية. يمكن للذكاء الاصطناعي التوليدي وغيره من أشكال الذكاء الاصطناعي، سواء كان يعمل بمفرده في العالم الرقمي أو مقترنًا بالروبوتات لتنفيذ المهام التي تتطلب العمل البدني، أن يعزز إنتاجية العمل العالمي بنسبة 30% في العقد المقبل، وبنسبة أكبر بحلول عام 2050.
كل هذه الفوائد تعتمد على أن تطوير ونشر وتحقيق القيمة من الذكاء الاصطناعي يتم بمسؤولية. يُفسر “الذكاء الاصطناعي المسؤول”، في هذا السياق الأوسع، وكما يراه الكثيرون من زملائي في شركة تايجر أناليتيكس – المعماريين البيانيين، علماء البيانات، مهندسي الذكاء الاصطناعي، المستشارين، ومنسقي البرامج، على أنه سلسلة من المبادرات التي يجب أن تحدث على ثلاثة مستويات متميزة ولكن مترابطة.
أولاً، في العلم الأساسي، البحث، وتطوير نماذج الذكاء الاصطناعي واسعة النطاق. ثانيًا، في كيفية دمج نماذج الذكاء الاصطناعي في العمليات التجارية والتطبيقات الأخرى. وأخيرًا، الإدارة التغييرية، مع التركيز على تعظيم القيمة لأصحاب المصلحة وتقليل الأثر السلبي على جميع أشكال الحياة على الكوكب. نظرة سريعة على كل منها:
البحث والتطوير في الذكاء الاصطناعي المسؤول
بفضل العالم الرقمي المتصل جيدًا، يعرف الكثير منا النقاشات في أوبن إيه آي خلال العام الماضي أو نحو ذلك. في رأيي، يتمحور الكثير من ذلك حول الحفاظ على سلامة الذكاء الاصطناعي: الآن، والأهم في المستقبل عندما يمكن أن تصبح النماذج أكثر ذكاءً من البشر. مواضيع مثل “التوافق” (مواءمة نماذج الذكاء الاصطناعي مع القيم البشرية)، أو “التوافق الفائق” الطموح (بناء أو تعزيز نظم القيم) تحظى باهتمام جدي على هذا المستوى بالإضافة إلى مقاييس الأداء للنماذج نفسها. بينما قد يبدو هذا مشكلة حديثة جدًا للتعامل معها، فإن قصة إسحق عاصيموف القصيرة – The Runaround، وضعت ثلاثة قوانين للروبوتات في عام 1942. [القانون الأول: لا يجوز للروبوت أن يؤذي إنسانًا أو، من خلال التقاعس، يسمح لإنسان أن يتعرض للأذى. القانون الثاني: يجب على الروبوت أن يطيع الأوامر التي يوجهها إليه البشر إلا إذا تعارضت هذه الأوامر مع القانون الأول. القانون الثالث: يجب على الروبوت أن يحمي وجوده طالما أن هذه الحماية لا تتعارض مع القانون الأول أو الثاني]. هذه القوانين ذات صلة كبيرة خاصة ونحن نقترب من مستقبل يتصافح فيه الروبوتات الرقمية (المدعومة بعقول الذكاء الاصطناعي ذات التعلم الذاتي، إن لم تكن بعد واعية) والروبوتات المادية.
هندسة الذكاء الاصطناعي المسؤول
تشير هندسة الذكاء الاصطناعي إلى عملية دمج النماذج والمكونات التي تحيط بالنموذج مثل معالجة البيانات الأولية، هندسة الميزات، واجهة المستخدم، إلخ، في تطبيق ذكاء اصطناعي شامل يخدم الهدف النهائي باستمرار وعلى نطاق واسع. في بعض الحالات، يُشار إليها أيضًا كمنتج ذكاء اصطناعي أو تعلم آلي.
أنظمة تعمل على مدار الساعة تراقب كل معاملة مالية لاحتمال الاحتيال، أو تولد التوصية بالإجراء الأفضل التالي لمقدم الرعاية الصحية لمريضه، أو توصيات شخصية عن المنتج أو السعر أو العرض الترويجي للعميل عبر قنوات تفاعل متعددة (تطبيق، واجهات الدردشة، إلخ)، هي بعض الأمثلة على هذه الأنظمة.
بناء هذه الأنظمة يحتاج إلى متخصصين تقنيين متعددين – علماء البيانات، مهندسي التعلم الآلي، محترفي DevOps التطبيقات، إلخ، للعمل جنبًا إلى جنب مع المحللين التجاريين، المستشارين، والمستخدمين النهائيين للأعمال. يجب على الجميع في هذه الفرق أن يكونوا مدركين، وأن ينفذوا بنشاط مبادئ الذكاء الاصطناعي المسؤول.
أ) قابلية تفسير النماذج المستخدمة في أنظمة اتخاذ القرار: نهج لتحديد قابلية التفسير للنماذج التنبؤية الكلاسيكية مقابل الشبكات العصبية الاصطناعية ونماذج الذكاء الاصطناعي التوليدية مختلفة، ولكن النقطة الأساسية تبقى: يجب أن يكون ناتج النموذج في علاقة مع المدخلات واضحًا ومعقولًا ومتسقًا.
ب) العدالة في القرارات المتخذة، أو المُمكنة، لإزالة التحيز أو التمييز.
ج) السلامة البدنية والصحة النفسية للمستخدمين النهائيين الذين يتفاعلون مع النظام.
د) التركيز على الإنسان، من منظورين i) تجربة التفاعل البشري المثلى مع الذكاء الاصطناعي، و ii) اختيار التصميم البشري في الحلقة مقابل الأتمتة الشاملة.
هـ) الخصوصية – يجب الالتزام بشكل صارم بخيارات الاشتراك أو الانسحاب التي يتخذها الأفراد بشأن استخدام بياناتهم في تطوير نماذج الذكاء الاصطناعي.
و) المسؤولية الواضحة من خلال i) الأفراد الذين يعلنون بوضوح الالتزام بالمبادئ المذكورة أعلاه، و ii) نظام حوكمة متعدد المستويات – بما يتماشى مع المخاطر المتوقعة، لضمان التطبيق المستدام والآمن للذكاء الاصطناعي.
الذكاء الاصطناعي المسؤول – الاستشارات وإدارة التغيير
نشر حلول الأعمال القائمة على الذكاء الاصطناعي ليس مجرد تمرين لترقية التكنولوجيا. لا يزال هناك الكثير من العناصر البشرية التي تحتاج إلى النظر في دمج الذكاء الاصطناعي في العمليات التجارية. غالبًا ما يُشار إلى الأتمتة الشاملة مقابل الهجين البشري-الذكاء الاصطناعي كنموذج “السايبورغ مقابل القنطور”. في هذا السياق، يحتاج الذكاء الاصطناعي المسؤول إلى معالجة بعض الأسئلة الرئيسية:
1) عند مواجهة مشكلة تجارية معينة، يجب أن يكون السؤال الأول هو ما إذا كنا بحاجة إلى الذكاء الاصطناعي لحلها. في ملاحظتي، في العديد من الحالات، يوفر التحليل الذكي للبيانات رؤى قابلة للتنفيذ وقيمة، بينما في بعض الحالات، هناك فرصة كبيرة لإعادة تصور عملية تجارية تمامًا من خلال نظام من النماذج الذكاء الاصطناعي المتزامنة بشكل جيد مع واجهة ذكاء اصطناعي توليدي للواجهة البشرية. السؤال الرئيسي في مثل هذه الحالات: ما هو مدى أتمتة المهام واتخاذ القرارات التي يجب تفويضها إلى الذكاء الاصطناعي، وما هي القيمة التجارية الإضافية مقابل تكلفة هذه التدخلات؟ يساعد هذا في بناء توافق أولي للتغيير.
2) عندما يؤدي النشر المدروس للذكاء الاصطناعي إلى إطلاق رأس المال البشري، هناك حاجة للتخطيط لجعل هذه التحولات سلسة، مع خطط لإعادة التأهيل الكافية. هذا مهم بشكل خاص حيث ستتأثر أدوار وظيفية معينة داخل المنظمات (وقطاعات معينة في الاقتصاد) بالذكاء الاصطناعي بشكل أسرع من غيرها.
3) أخيرًا، في حالة حدوث انقطاع في الذكاء الاصطناعي، ما هي خطة الطوارئ؟ هذا لا يختلف عن الطيارين البشريين الذين يتولون التحكم من الطيار الآلي. كيف نضمن أن الطيارين البشريين للذكاء الاصطناعي لا يزالون مؤهلين بما يكفي لتولي المهمة عند الحاجة؟
باختصار، فإن وعد الذكاء الاصطناعي بتكبير الإمكانيات البشرية إلى مستويات خارقة في أعلى مستوياته على الإطلاق. مع التصميم المسؤول والنشر المدروس، أعتقد أننا سنكون في عالم قنطوري – مع تجارب معززة بأفضل العقول البشرية والذكاء الاصطناعي، لفترة طويلة قبل أن تهيمن السايبورغ…..
مي محمد ✍️✍️✍️
