حوكمة الذكاء الاصطناعي (اطار عام)

يتوقع الخبراء وخلال عدة سنوات أن الروبوتات ستكون موجودة بكل منزل وبكل مكتب وربما روبوت لكل شخص كما هو الحال الآن مع الهواتف الذكية. حاليا تُستخدم الروبوتات لغرض عمليات الإنتاج بالمصانع، للمستودعات، لمساعدة الناس في المطارات والأسواق والفنادق، لاكتشاف المحيطات والفضاء، وغيرها من الاستخدامات. الأنظمة الذكية كذلك تُصمم لاستخدامات متفرقة سهلت حياة الناس، مثل الصحة، التعليم، الحكومة الإلكترونية، والتجارة والصناعة.

تأثير تلك التقنيات الذكية على المجتمع كبير حيث يعتمد الناس عليها ويستخدمونها للتواصل ولأداء مهامهم واتخاذ القرارات. لذلك لابد من ضبط ذلك الاستخدام لتعزيز ايجابياته. ولضبط استخدامات الذكاء الاصطناعي يلزم على عدة جهات ان تشترك ويكون لها دور في هذه العملية. إحدى تلك الجهات هي الحكومات والتي بدورها تحكم صناعة التقنيات الذكية وتحمي الناس من سلبياتها.

نظرا لتطور تقنيات الذكاء الاصطناعي، وجب على الشركات المصنّعة أن تضمن سلامتها. فأنظمة وآلات الذكاء الاصطناعي أصبحت قادرة الآن على جمع البيانات وتحليلها واتخاذ القرارات بشكل ذاتي نيابة عن الانسان. فعملية جمع البيانات والتحليل واتخاذ القرار بشكل ذاتي لابد ان تكون محكومة بسياسات ومبادئ مقبولة لدى المجتمعات.

حوكمة الذكاء الاصطناعي تشمل بشكل عام وضع سياسات وقوانين واخلاقيات تشمل الشفافية والتفسير، العدالة والنزاهة، الأمن والسلامة، والمسؤولية. وهذا لإنتاج واستخدام وتطوير الذكاء الاصطناعي بحيث نتأكد أن البشرية تستفيد منه ولا يؤثر عليها بشكل سلبي، وتحفظ المصلحة العامة وحقوق أصحاب المصالح (وهم الحكومة، صنّاع السياسات، المشرعون، المنظمون، الشركات المصنّعة، المستخدمين، والمجتمع)، إضافة إلى تحديد المخاوف ومعالجتها، ودراسة الاثار الأخلاقية والقانونية لاستخدامات الذكاء الاصطناعي.

وقبل أن أتطرق لإطار حوكمة الذكاء الاصطناعي، فلابد أن أفصّل قليلا في اخلاقيات الذكاء الاصطناعي حيث أنها أحد الركائز المهمة في الحوكمة. الاخلاقيات بشكل مجرد هي المبادئ والقيم التي تقود شخص او مجتمع للتصرف بشكل صحيح. من أين تأتي هذه الاخلاقيات؟ كما يظهر بالشكل أدناه، فهي تُستقى من عدة مصادر مثل الدين، المجتمع، العادات والتقاليد، البيئة، والعائلة. بعض تلك الاخلاقيات تكون مكتوبة ومنصوص عليها على شكل قوانين او سياسات او لوائح مثل التعاليم الدينية والقوانين المدنية وبعضها مكتسب من المخالطة والبيئة والانتماء مثل العادات والتقاليد. هذه الاخلاقيات عبارة عن خطوط عريضة، فحينما يتعرض الفرد لحالة معينة فإنه يستدعيها ويمحصها بالتفكير النقدي والمنطقي ويحاكم الحالة طبقا لمبادئه الأخلاقية (وجهة نظر، نوايا، تفضيلات، رغبات، ومعتقدات) ليتخذ القرار الأخلاقي المناسب، مثلا التبرع بالأعضاء. فالبشر يعتمدون على الاخلاقيات بشكل أساسي لإجراء ثلاثة أمور رئيسية وهي التفاعل مع الاخرين، اتخاذ القرارات، وتنفيذ المهام.

 

من هذا المنطلق وكون تقنيات الذكاء الاصطناعي أصبحت جزء لا يتجزأ من حياتنا بحيث نعتمد عليها في تعاملاتنا وقراراتنا ومهامنا فلابد لها من اخلاقيات تحكم طريقة عملها وتحكم طريقة استخدامنا لها خصوصا ان بعض تقنيات الذكاء الاصطناعي أصبحت ذاتية التحكم. تلك القرارات يجب ان تُبنى على اخلاقيات كما بنيت قرارات الانسان. واخلاقيات الذكاء الاصطناعي لابد ان تكون مستمدة من اخلاقيات المجتمع التي هي فيه لكي يثق فيها المجتمع ويعتمد عليها وتكون إيجابية نافعة.

نستطيع ان نعرف اخلاقيات الذكاء الاصطناعي على انها مجموعة من القيم الأخلاقية التي تحكم أنشطة الذكاء الاصطناعي. ويمكن تقسيم أخلاقيات الذكاء الاصطناعي لثلاث فئات، اخلاقيات العاملين في صناعة الذكاء الاصطناعي (المصنّعون، المبرمجون، والمصممون)، الاخلاقيات الموجودة داخل أنظمة الذكاء الاصطناعي، واخلاقيات الأشخاص الذين يتعاملون مع الذكاء الاصطناعي (المستخدمون، والمجتمع). إذن، بشكل عام على العاملين بمجال صناعة تقنيات الذكاء الاصطناعي ان ينتجوا تقنيات نافعة مفيدة، وأن يتم دمج الاخلاقيات في الآلات والأنظمة الذكية بحيث أنها لا تضر حينما تتواصل مع أحد أو تؤدي مهمة أو تتخذ قرار، اضافة إلى أهمية حسن تعامل المستخدم والمجتمع مع التقنيات الذكية بحيث لا يتم تعليمها مايضر الآخرين ولا استخدامها بشكل خاطئ.

في الشكل أدناه، أستعرض إطار عام لحكومة الذكاء الاصطناعي يشمل أصحاب المصالح بمختلف المستويات (علما أني طورت هذا الإطار في وقت سابق وكنت قد أسمتيه اطار الثقة). الشكل يركز على اخلاقيات الروبوت لكن ما ينطبق على الروبوت ينطبق على البوت أيضا وهما نوعي الذكاء الاصطناعي.

 

في هذا الإطار هناك ثلاث جهات رئيسية وهي الحكومة، الشركات التقنية، والمجتمع. علاقتها مع بعضها كالتالي: الحكومة وتشمل المشرّعين وصنّاع السياسات تقوم بتوجيه الشركات التقنية من أجل حماية المجتمع. توجيه الشركات يكون باستخدام تقنيات الحوسبة بحيث تستخدم الشركات الخوارزميات لدمج المبادئ الأخلاقية داخل الروبوتات، وتستخدم التعلم الآلي لتعليم الروبوتات على القرارات الأخلاقية. من جانب آخر المجتمع يحتاج الى مسؤولية الشركات الاجتماعية والتي تتطلب منها شيئين وهما الشفافية والتفسير. يجب ان تكون الشركات شفافة من ناحية اعلان ماهي المبادئ الأخلاقية التي زرعتها بالروبوتات، وتكون واضحة في تفسير قرارات الروبوتات الأخلاقية في حال حدوث خطأ ما. المسؤولية الاجتماعية للشركات تعزز ثقة المجتمع في التقنيات الذكية وهذا يؤدي إلى الحفاظ على سمعة الشركات مما ينمي الاستدامة والتي بدورها تعود بالنفع على الشركات. هذا الإطار يعطي نظرة واسعة عن علاقة الحكومة، الشركات التقنية، والمجتمع في تحقيق السلم التقني ان صح التعبير.

 

هل يمكن خداع الذكاء الاصطناعي؟

بعض آلات وأنظمة الذكاء الاصطناعي مزودة بحساسات وأجهزة رؤية للتعرف على البيئة المحيطة لكي تعمل. لكن ماذا لو تم التلاعب بتلك الحساسات أو أجهزة الرؤية؟ ليس تخريب بل تلاعب بما تحس او ترى! وهنا تكمن المشكلة. وبالمثال يتضح المقال:

المثال الأول، فريق من الباحثين نجحوا بخداع نظام تيسلا للقيادة الذاتية وجعلوه يحرف السيارة للمسار الآخر (مسار السيارات بالاتجاه المعاكس).. تم ذلك بوضع ٣ ملصقات صغيرة على الطريق يقرأها نظام القيادة الذاتية انها علامات لانحراف السيارة. في هذا المثال عرف الباحثون ان نظام الرؤية بالسيارة يتعرف على عدة علامات ويقرأها ويترجمها على انها مؤشرات لانحراف السيارة او لبقائها على نفس المسار، ونجحوا بالتلاعب بما ترى السيارة.

Image

 

وهنا مقطع يوضح التجربة

 

 

مثال آخر، تمكن باحثون من خداع نظام الرؤية في السيارات ذاتية القيادة بحيث جعلوه يقرأ لوحات “قف” وكأنها لوحات تحديد السرعة “٤٥ م/س” وذلك بوضع ملصقات على اللوحة تغير من شكلها لدى نظام الرؤية. تم التوصل لهذه النتيجة بواسطة الهندسة العكسية للنظام لدى المركبات.

 

مثال أخير، وهو أن بعض السائقين للسيارات التي فيها نظام قيادة ذاتية على الطرق السريعة تمكنوا من خداع النظام وابقائه يعمل رغم عدم امساكهم بالمقود او حتى جلوسهم بمقعد السائق وذلك بوضع جسم على المقود ليخدع النظام وكأن هناك يد تمسك به (علما أن نظام القيادة الذاتية الموجود حاليا ببعض السيارات يلزم السائق بوضع يديه طوال الوقت على المقود واذا احس النظام بخلاف ذلك فإنه يصدر اصوات تحذيريه ثم يعطل القيادة الذاتية ويوقف السيارة)

Image

Image

Image

 

الروبوت، الذكاء الاصطناعي، والروبوت الذكي

بسبب تضخيم مصطلح الذكاء الاصطناعي واستخدامه في غير محله ليشمل اي نوع من الانظمة والبرامج، وجب هنا على المختصين إيضاح الفرق بين الروبوت والذكاء الاصطناعي والروبوت الذكي. في مقال سابق (ماهو الروبوت؟) تحدثت عن تعريف الروبوت وانواعه، وبشكل عام يعرف الروبوت على أنه آلة لها حساسات، مصدر طاقة، تتحرك، وفيها نوع من الذكاء الاصطناعي. لكن ليس كل روبوت ذكي فبعض الروبوتات مبرمجة على أداء مهام معينة بشكل مكرر. بالمقابل ليس بالضرورة أن يكون كل ذكاء اصطناعي روبوت، فهناك ذكاء اصطناعي على شكل أنظمة وتطبيقات. هنا بهذه الصورة يتضح الفرق: 

Image

 وبسبب هذا الخلط بين المصطلحين نجد انها ضُخمت وبدأ يُطلق مصطلح الذكاء الاصطناعي على اي آلة او نظام وبرنامج. الصحفية Karen Hao من MIT Technology Review رسمت خوارزمية مبسطة لتوضيح ما اذا كان نظام/آلة يستخدم الذكاء الاصطناعي أم لا..

Image

 

وهنا بعض التطبيقات الشهيرة للذكاء الاصطناعي

Icons made by Icongeek26 from www.flaticon.com

متطلبات ثقة المستخدم بالسيارات ذاتية القيادة

Image

أجريت دراسة على مجموعة من التعليقات حول فكرة اتخاذ السيارة ذاتية القيادة قرار التضحية بالركاب او المشاة في حالة الخلل او وقوع حادث.. وخرجت بنتائج استعرض بعضها بالتغريدات القادمة شرح الفكرة هنا (هل سنثق بسيارة ذاتية القيادة تضحي بنا؟)

الغرض من الدراسة هو معرفة وجهات نظر المستخدمين المرتقبين والمجتمع تجاه سيارة ذاتية القيادة مبرمجة على التضحية بشخص او مجموعة اشخاص مقابل الحفاظ على آخرين مثلا حماية المشاة والتضحية بالركاب، او التضحية بعدد الاشخاص الاقل مقابل حماية الكثير وهكذا

الغرض الثاني هو هل المجتمع مستعد لقبول هذا النوع من السيارات والثقة به؟ لان القبول والثقة عامل أساسي في انتشار المنتج التقني 

الذي وجدته ان هناك:

٣٩٪ رافضين فكرة المشكلة وانها لا يمكن ان تحدث (وهي ان تتعطل مكابح السيارة او خرج عليها وسط الطريق جسم فجأة ولابد ان تتخذ قرار)

٢٤٪ قدموا حلول لمنع هذي المشكلة من الوقوع

٣٧٪ لديهم خوف من هذا النوع من السيارات

Image

 

طبعا كل مجموعة لديهم عدة اسباب تبرر وجهة نظرهم مثلا:

ممن يرفض الفكرة هناك ١٢٪ يقولون ان السيارات الان متطورة ولا يمكن حدوث خلل بهذه السهولة.

ممن قدموا حلول هناك ٨.٧٪ اقترحوا اضافة تقنيات أمان وسلامة اضافية.

ممن لديهم خوف هناك ٨.٣٪ يقولون من غير العدل اعطاء سيارة الحق بالتضحية بانسان لأجل آخر.

من خلال تحليل وجهات النظر خرجت بعدة نقاط اذكر بعضها:

– المستخدم لن يقبل سيارة لديها القدرة على اتخاذ قرار تضحية بانسان ولن يثق بها

– المستخدم سيقبل بسيارة قابلة للتنبؤ (predictable) واضحة المواصفات والقدرات (transparency)

– خوف المستخدم ناتج عن ضبابية موقف الشركات وصناع القرار

بالنسبة لضبابية الشركات وصناع القرار، ربما تكون مبررة نوعا ما على الاقل بالوقت الحالي لأنه لا يوجد اجماع حتى الان على ماهية القرارات الاخلاقية التي على السيارات ذاتية القيادة اتخاذها في حال الخلل او الحوادث مثلا، وزارة النقل بامريكا لم تحل الموضوع حتى الان

وزارة النقل بألمانيا اصدرت تقرير وضعت فيه ٢٠ مبدأ اخلاقي لبرمجة السيارات ذاتية القيادة.. جزء من المبدأ رقم ٩ يقول ان تقليل عدد الضحايا في الحوادث (التي لا يمكن تجنبها) ربما يكون مبرر! كريستوف لوتغ احد اعضاء لجنة التقرير يقول هذا المبدأ نوقش بشكل جدلي ولم يتم اعتماده من كل الاعضاء

 

Image

وهذا جزء من الضبابية او عدم الوضوح التام والذي يحيط ببرمجة السيارات ذاتية القيادة وهذا ربما ينعكس على الشركات المصنعة وعلى المستخدم بنهاية المطاف

آثار استخدام السيارات ذاتية القيادة

Image

كُتبت عدة مقالات عن آثار متوقعة ربما تحدث بعد انتشار السيارات ذاتية القيادة طبعا بعض هذي العواقب (متطرفة وربما خيالية) لكنها تكررت من بعض الكتاب سأذكر بعضها:

سيقل شراء السيارات الجديدة والمستعملة لان مشاركة السيارة ذاتية القيادة مع عدة اشخاص سيكون أسهل وأيسر فالسيارة ممكن تتنقل بنفسها بين الاماكن وتخدم اكثر من شخص هذا غير وجود شركات النقل مثل اوبر وليفت وهذا هو عملها الرئيسي لذلك لن يحتاج الشخص لشراء سيارة

انخفاض الحوادث بعد تطبيق السيارات ذاتية القيادة سيحد من عمل شركات التأمين بحيث لن يحتاج الافراد للتأمين على سياراتهم الذكية مستقبلا لانها لن ترتكب اي حادث طبعا هذا اذا احتاج الفرد لشراء سيارة اصلا، لان مشاركة السيارات موجودة

ستتسع الشوارع الرئيسية وتزال المواقف الجانبية فيها خصوصا شوارع الاسواق وداخل المدن لان الناس سيعتمدون على مشاركة السيارات مع اخرين ولن يكون هناك حاجة لها لتقف بانتظارهم

سيزداد استهلاك الافراد بشراء المنتجات خصوصا من الشركات والمواقع التي لديها خدمة توصيل عبر سيارات ذاتية القيادة (مثلا مطاعم ومواقع تسوق الكتروني) لان البيع والشراء والتوصيل سيكون اسهل واسرع الشركات والمواقع التي ليس لديها سيارات توصيل ستعتمد على سيارات شركات النقل (مشاركة)

Image

 Image

 

ستزداد انتاجية الفرد لان الوقت الضائع بالقيادة سينعدم حيث سيكون الكل عبارة عن ركاب يستغلون وقتهم وربما تتحول بعض السيارات ذاتية القيادة الى مكاتب عمل محسوب الجلوس فيها من وقت الدوام

Image 

Image

سيزداد الطلب على خدمات البث الترفيهي (مثل نتفليكس وامازون برايم) لان السيارات ستكون كأنها غرفة متنقلة وسيحتاج الركاب لوسائل ترفيه فيها كما في منازلهم

Image

ستقل الحاجة لوجود رجل المرور بالشارع لان السيارات ذاتية القيادة ستلتزم بالنظام ولن ترتكب اي مخالفة وستقل الحاجة ايضا لرجل الامن لان السيارات ستكون مزودة بكاميرات تصور وتسجل كل ما حولها وسيتم استخدامها لرصد مخالفات الافراد ان حدثت

ستقل ورشات اصلاح السيارات بسبب انخفاض الحوادث وسيقل الطلب على الميكانيكي لان جزء كبير من السيارات ذاتية القيادة ستكون كهربائية قليلة الاعطال

أخيرا وهذا من الآثار الغريبة نوعا ما وهو ان الاعضاء المتبرع بها ستقل وسيكون هناك نقص شديد بالتبرع بالاعضاء لان حوادث السيارات هي أحد مصادر الاعضاء (مصائب قوم عند قوم فوائد) والسيارات ذاتية القيادة لن ترتكب الحوادث المميتة مستقبلا وربما ولا حتى الحوادث البسيطة

حقوق الروبوتات

يطالب البعض باعطاء حقوق للروبوتات لحمايتها من الايذاء.. خصوصا انه انتشرت مقاطع مؤخرا يظهر فيها روبوتات تتعرض للضرب (طبعا المقاطع هي لتجارب تبين قدرة الروبوت على التوازن).. فهل هذا المطلب مشروع؟

المطالبة هنا ليست لأجل الروبوتات ذاتها انما لأجل الانسان وحمايته من تغير سلوكه اذا انتشرت مستقبلا. فالروبوتات ستكون موجودة بكل منزل وبكل مكتب وفي الطرق والشوارع، فهي ستكون رفيقة الانسان في أداء مهامه ومساعدته وربما حتى اتخاذ القرارات نيابة عنه. فهي بشكل عام ستكون جزء من حياتنا نعتمد عليها ونتعامل من خلالها كما هو عليه الحال الان مع هواتفنا الذكية. الروبوتات بطبيعة الحال ستكون ناطقة متحركة متفاعلة ولبعضها القدرة على ابداء المشاعر، فستكون جزء من حياة الانسان، فاذا صار ضربها والتعدي عليها وإهانتها ليس له قانون فسيصبح الاعتداء مستساغ ومستلطف ومن يملك روبوت فله الحق بضربه او تكسيره او حرقه ولن يمنعه احد. فالعائلة تعتدي على روبوتها الخاص، والموظف يعتدي على الروبوت (زميل العمل)، وربما المارة والمشاة يعتدون على الروبوتات في الشوارع. وربما تزداد المسألة تعقيدا حينما يكون الاعتداء هذا امام الاطفال، فسيصبح عندهم هذا الفعل مقبول! بالنسبة للروبوتات الناطقة فقط وغير المتحركة (مثل سيري واليكسا) فسيكون الاعتداء عليها لفظيا ايضا مقبول كونها اجهزة لا تتأذى من التنمر.

لذلك عدم وجود حقوق للروبوتات (او بالاصح واجبات وإلتزام اخلاقي على الانسان تجاه الروبوت) سيفتح الباب لتغير سلوك الانسان والمجتمع ككل ان صار هذا تصرف مقبول اجتماعيا وسيصل أثره حتى على التربية في المنزل.

الروبوتات تأخذ الوظائف من البشر لكن تعطيهم وظائف أخرى

Image

يقال ان التقنية (الروبوتات والذكاء الاصطناعي) ستأخذ الوظائف من البشر وتزيد البطالة.. طبعا هذا صحيح والتقنية ألغت ومازالت تلغي بعض الوظائف وخصوصا الروتينية لكن هل فعلا ستزيد البطالة؟ (هنا مقطع تحدثت فيه سابقا عن عدة دراسات – فيديو – ماهي الوظائف التي سيأخذها الروبوت من الانسان؟)

على سبيل المثال في بريطانيا عام ١٨٠٠ كان معظم البريطانيين يعملون في الزراعة. جاءت التقنية واصبحت تنتج نفس الكمية وربما أكثر بعدد عمال أقل. هنا فقد بعض المزارعين وظائفهم لكن بنفس الوقت تم إنشاء وظائف جديدة في تصميم وصناعة وهندسة وبيع وصيانة الالات الزراعية. وهذا حدث أيضا بداية الثمانينات فحينما ارتفع مستوى قوة التقنية في عدة مجالات انخفضت معدلات البطالة حتى عام ٢٠٠٠. التقنية ذاتها انتجت وظائف جديدة مثلا في التحليل، البرمجة، الشبكات، قواعد البيانات، امن المعلومات، تطوير البرامج، وغيرها الكثير من الوظائف التي لم تكن موجودة قبل ظهور الكمبيوتر. الشكل التالي يوضح العلاقة بين معدلات البطالة والتقنية. 

الجانب الآخر هو ماهية نوعية الوظائف التي سيأخذها الروبوت؟ الوظائف المعرضة للخطر هي الروتينية التي لا تحتاج لمهارات وربما ايضا لا تحتاج الى خبرة للحصول عليها في قطاعات النقل والتخزين والزراعة والصناعة وتجارة التجزئة وغيرها. في الصورة مثال على الوظائف في امريكا. مثلا ٦٩٪ من الوقت المصروف في وظيفة معالجة البيانات يمكن ان يتحول الى آلي (اوتوماتيكي)، لذلك هذه الوظيفة معرضة للخطر من قبل التقنية، ومصيرها ان تكون مؤتمتة بالكامل. مثال آخر ٩٪ فقط من الوقت المصروف في وظيفة ادارة الاخرين يمكن ان يتحول الى آلي، مما يعني ان هذه الوظيفة غير معرضة للخطر وربما تكون باقية.

Image

 

هناك وجهة نظر تقول ان الروبوتات سوف تزيح الموظفين لوظائف أخرى ولن تستبدلهم او تقضي عليهم displace not replace لأن هناك وظائف قديما تم التخلص منها وانتقل اصحابها لأعمال أخرى ربما أعلى أجر وافضل من ناحية بيئة العمل.

مثلا هذه الوظائف اختفت وانتقل اصحابها للعمل بوظائف أخرى بعد ظهور التقنية

– مقطّع الثلج لحفظ الاطعمة

– مشغل المصاعد لمساعدة الناس على الركوب

– مشغل إنارة الممرات

– ناقل الاخشاب عبر الانهار 

ويلاحظ في السابق ان الوظائف بشكل عام تعتمد على قوة الجسد والتحمل، بينما مع تطور التقنية اصبحت الوظائف تتطلب مهارات ذهينة وتعليم. لذلك حينما تأخذ التقنية وظيفة فربما يلزم على من يعمل بها ان يطور مهاراته لينتقل لوظيفة افضل وربما اكثر دخلا.

Image

Image Image

 

Image

 

التقنية بشكل عام كما أسلفت تولد وظائف جديدة لم تكن معلومة من قبل، فمثلا من كان يعمل بتطوير التطبيقات قبل عام ٢٠٠٧ (تاريخ انتاج اول جهاز ايفون وبدء ثورة الهواتف الذكية)؟ ربما عددهم بالمئات، لكن حاليا نجدهم بالملايين. مثال آخر، تطبيقات توصيل الطلبات وتوصيل الركاب ولدت وظائف جديدة واصبح من السهل ان يقوم اي شخص بعملية التوصيل والتطبيقات ستساعده بتسهيل العملية. القصد من هذا ان مع زيادة تطور التقنية تظهر لنا وظائف جديدة.

اخصائي حركة جوية للقطاع الخاص (تشغيل الطائرات بدون طيار)، اخصائي النقل الذاتي (التحكم ومراقبة السيارات ذاتية القيادة)، اخصائي أتمتة المنازل (تحويل المنازل لتكون ذكية)، هذا غير التصنيع والتجميع والتوزيع والتركيب والبرمجة والصيانة. هذه كلها اعمال سوف تظهر قريبا.

ايضا، تدريب الروبوت لبدء العمل يعتبر وظيفة جديدة ويتفرع منها عدة وظائف. مفسر أعمال الروبوت وظيفة تنقسم لوظائف اكثر. مراقب عمل الروبوت لضمان استمراريته وظيفة يندرج تحتها عدة وظائف من ضمنها طبعا خبير اخلاقيات الأتمتة.

Image

 في النهاية، لا احد يستطيع الجزم بما سيفعله الذكاء الاصطناعي والروبوت بالوظائف في المستقبل، وكل مايدور الان عبارة عن استقراء للماضي وتنبؤ بالمستقبل. نعم هناك خطوط عريضة تم الاتفاق عليها (مثل اثر الروبوت على الوظائف الروتيتنة)، لكن الجزم بكل ماورد في التقارير يعتبر أمر بالغ الصعوبة.

 

أخيرا، هنا موقعين لحساب احتمالية أتمتة الوظائف، فقط ادخل مسمى وظيفتك وسيعرض لك الموقع مدى تعرضها للخطر من قبل الروبوتات

١- Will Your Job Be Done By A Machine

٢- Will a robot take your job

الشفافية في الأنظمة والروبوتات الذكية

Image

يخاف البعض من الروبوتات او الانظمة الذكية بسبب امكانية تمردها مستقبلا او سيطرتها على البشر، وهذا خوف نابع من افلام الخيال العلمي لكن الخوف الحقيقي هو ثقة البشر العمياء بها واعتمادهم عليها باتخاذ قرارات تمس حياتهم، وهذا له أمثلة حديثة. الثقة بنظام يتخذ قرار بطريقة مبهمة له تبعات خطيرة الانظمة الذكية أحيانا تخطئ لانها انظمة تتعلم وربما تعليمها يكون فيه خطأ فينعكس هذا على قراراتها لذلك الثقة التامة بقرار نظام لا نعرف كيف تعلم ولا نعرف ماهية المعلومات التي اعتمد عليها هو خوف مبرر. الانظمة الذكية الان يعتمد عليها بالتوظيف، منح القروض، التمويل العقاري، العلاج، الأمن والحماية، وغيرها حينما يُرفض المتقدم على وظيفة، شركة تأمين، او بنك ربما لن يستطيع معرفة السبب الحقيقي للرفض لان النظام استبعده بناءً على البيانات التي تغذى عليها أثناء تعليمه. فالجهة المستخدمة للنظام وضعت ثقتها فيه باتخاذ القرارات والافراد المتلقين لتلك القرارات لا يعرفون اسباب الرفض او القبول لذلك يأتي هنا دور “الشفافية” في كيفية تعليم الانظمة، و”الشرح والتفسير” لقراراتها.

الشفافية في الانظمة والروبوتات الذكية مهمة:

للفرد لكي يثق فيها

للخبراء للتحقق من كفاءتها

لجهات التحقيق لمعرفة الاسباب (في حال وقوع حادث)

للجهات القضائية والمحامين لاستخدامها كأدلة

للتاجر لكي يستثمر فيها

للمجتمع ككل لكي لا يرفضها.

هناك الان عدة جهات وحكومات قائمة على بناء معايير لضبط عمل الانظمة الذكية للاستفادة القصوى منها وحماية المجتمع من اخطائها مثل مشروع IEEE P7001 – Transparency of Autonomous Systems

وهنا أمثلة لانظمة اتخذت قرارات خاطئة: هل الذكاء الاصطناعي دائما على حق؟

الذكاء الاصطناعي الضعيف والقوي (المحدود والشامل)

Image

كل ماتم انتاجه في الذكاء الاصطناعي يصنف على انه ذكاء اصطناعي ضعيف او محدود او ضيق weak AI أو narrow AI ذكاء مصنوع لتنفيذ مهمة واحدة معينة.

الصنف الآخر من الذكاء الاصطناعي هو ذكاء اصطناعي قوي او شامل Strong AI أو General AI ذكاء مثل ذكاء الانسان وهذا لم نصل له بعد.

مانراه حولنا الآن من روبوتات وبرامج ذكية مثل روبوتات المصانع والسيارات وبرامج الالعاب وتطبيقات المساعد الشخصي، مصنوعة لأداء مهام معينة.

مهما وصلت تلك الآلات والتطبيقات من الذكاء في أداء مهام معينة، لكنها تبقى تحت تصنيف الذكاء الاصطناعي الضعيف. علما ان بعضها تفوقت على الانسان في تنفيذ مهام محددة.

اما الذكاء الاصطناعي القوي فهو شبيه بذكاء الانسان يشمل التكيف والوعي والادراك ومهارات المنطق والفهم والتعلم الذاتي والتخطيط والتواصل والتفاوض والمشاعر وغيرها من الصفات الانسانية.

أمثلة على الذكاء الاصطناعي المحدود:

Image

Image

Image

Image

 

فلسفة الذكاء الاصطناعي

واحد من أسباب كبح جماح المنظمات التقنية من التقدم والاختراع والابتكار هو التأثير السلبي لبعض الاختراعات التقنية على الانسان والبيئة مما أدى لمقاومتها من المجتمعات. التقنية التي اقصد هي كل أداة تستخدم لتسهيل حياة الانسان سواء في حياته اليومية او في التصنيع والإنتاج، والمجتمع هو الفئة المستهدفة لاستخدام التقنية من قبل الشركة المنتجة بعيدا عن الحدود الجغرافية. رفض المجتمع للتقنية يحد من تطورها ويجعلها حبيسة المعامل والمختبرات لان المجتمع هو الجمهور الاساسي الذي تختبر فيه التقنيات وتطبق وتنشر، فاذا انعدمت ثقته او اهتزت فلن تنجح اي تقنية، هذا غير ان بعض التقنيات خرجت للعلن وتم تطبيقها وتداولها لكنها فشلت في جذب المستخدمين. اما الجانب الآخر من انعدام الثقة هو خسارة البشرية لتقنية كان من الممكن ان ترتقي بالمجتمع وتسهل حياته بالجانب التي تخصصت فيه لولا وجود قصور فيها. المجتمع عبارة عن عامل مهم جدا في عملية تطوير التقنية، وإذا فُقد هذا العامل فلن يكون هناك عملية تطوير وإن حدثت فستكون ناقصة.