قوانين جديدة للروبوت

إذا كانت برمجيات الذكاء الاصطناعي تهدد بالاستيلاء على وظائفنا أو أن تتحول إلى عساكر آلية تراقبنا، فإن ذلك راجع إلى غياب منظومة تشريعية.

قبل ستين عامًا، نشر المفكّر وكاتب الخيال العلمي إسحق آزِموﭪ قصة قصيرة بعنوان (Runaround)، تدور أحداثها في المستقبل، حيث يوجد اختراع اسمه «الإنسان الآلي»، وقد حدد المؤلف ثلاثة قوانين تحكم العلاقة بين تلك الآلة الذكية وأسيادها من البشر:

  1. لا يجوز لآليّ إيذاء بشريّ أو السكوت عما قد يسببه من أذًى له.

  2. يجب على الآليّ إطاعة أوامر البشر إلا لو تعارضت مع القانون الأول.

  3. ينبغي للآليّ المحافظة على بقائه الشخصي ما لم يتعارض ذلك مع القانونين الأول والثاني. 

ومن المدهش أن تلك القوانين الثلاثة قد ترسخت في الوعي الجمعي لأجيال من الناس، حتى أولئك الذين لا يعرفون من يكون آزِموﭪ. بل إنها توجّه اليوم طبيعة علاقتنا المُتخيلة مع الآلات الذكية التي صارت جزءًا من واقعنا ومستقبلنا، بكل ما يحمله ذلك من مخاوف ومجاهيل.

لكن فرانك باسكوالي له رأي آخر، عبّر عنه في كتابه المنشور عام 2020: «قوانين جديدة للروبوت: الدفاع عن الخبرة البشرية في عصر الذكاء الاصطناعي» (New Laws of Robotics: Defending Human Expertise in the Age of AI). فهو يجادل بأن تلك القوانين قد وُضعت في زمن سحيق، قبل أن نستوعب شمولية تطبيقات الذكاء الاصطناعي وعمق تداخلها مع شؤوننا. ثم إنها قوانين موجّهة للروبوتات، وكأننا نخاطب من خلالها هذه الكائنات الاصطناعية لنجبرها -قانونيًّا- على إطاعتنا وعدم أذيتنا. لكن الروبوتات في النهاية مصنوعات بشرية، فالبشر هم الذين برمجوا الروبوت ليأخذ وظيفتهم المستقبلية. أليس ذلك نوع من «الأذية» التي أوقعها الإنسان بابن جنسه بما يتعارض مع القانون الأول؟ لمَ نلوم الروبوتات الشريرة إذن؟

فلنعطِ الخبز لخبّازه

باسكوالي هو أستاذ قانون بكلية بروكلِن للحقوق، متخصص في الذكاء الاصطناعي والتعلم الآلي. وهذه الخلفية القانونية تحدد الإطار العام لكتابه، فهو يرى أن لب مشكلتنا الحالية مع الروبوتات الذكية تتمثل في غياب «المساءلة الخوارزمية» والتدابير القانونية للحد من فوضى التقنية. إننا نتخبط في محاولة استشراف مستقبل علاقتنا مع الروبوتات، راسمين أشد السيناريوهات تشاؤمًا، وتاركين في الوقت نفسه الحبل على غاربه للمبرمجين والعسكريين وأصحاب رؤوس الأموال ليضعونا تحت الأمر الواقع ويجبرونا على التعامل مع منتجات أفكارهم ومختبراتهم. 

33692056584 5f097bf6a0 K
الكاتب فرانك باسكوالي متحدثًا في برلين (2017) / Jan Michalko

فإذا كانت برمجيات الذكاء الاصطناعي تهدد بالاستيلاء على وظائفنا أو أن تتحول إلى عساكر آلية تراقبنا على مدار الساعة، فإن ذلك راجع إلى غياب منظومة تشريعية تقنن حدود تطبيقاتها. وهنا يقترح باسكوالي أربعة قوانين جديدة بديلة لقوانين آزِموﭪ، موجّهة هذه المرّة إلى البشر بصفتهم المطورين الأصليين للذكاء الاصطناعي. إنها قوانين من البشر للبشر وفي سبيل البشر.

القانون الأول: يجب أن تتكامل الأنظمة الروبوتية مع البشر، لا أن تحل محلهم

يجادل باسكوالي بأن:

الخبرة البشرية لا يمكن الاستغناء عنها، حتى بوجود الخوارزميات والآلات الذكية. صحيح أنه توجد مهام خطِرة ومهينة يسعدنا أن نوكلها إلى الروبوتات، كتنظيف المجاري وإصلاح الكابلات البحرية، لكن ماذا عن التعليم والقضاء والطبابة والتدريب الرياضي؟ Click To Tweet

كل المهن التي تتطلب تعاملًا مباشرًا مع البشر، على اختلاف نفسياتهم ومستويات استيعابهم، تحتاج إلى خبير بشري يكون صاحب القرار الأخير. الذكاء الاصطناعي يتفوق علينا بقدرته على المعالجة الدقيقة لكمّ هائل من البيانات بسرعة خارقة، لكن تلك سمة قد تفيد لمهمة محددة لا مجمل الحرفة، لأن الإنسان هو الأقدر على التعامل مع أخيه الإنسان وفق معطيات بشرية لا يمكن أتمتتها جميعها. إن المزاج العام للناس، قدرتهم على التعاطف والتعامل بموضوعية مرنة، هي خواص متغيرة بتغير الزمن والذائقة الجمعية، ولا يمكن التنبؤ بها رياضيًّا. 

يضرب باسكوالي مثالًا بصناعة النشر، فعملية تحديد ما إذا كان نصٌ ما جديرًا بتصدّر قائمة المبيعات، هي عملية معقدة يجدر أن تقوم بها هيئة تحرير بشرية عوضًا عن خوارزم آلي قد لا يتمكن أبدًا من توقع تفاعل القراء مع منتج أدبي خاضع لاعتبارات ثقافية واجتماعية وسياسية غير قابلة للتَكويد.

هذا القانون خاضع كذلك لأساسات الاقتصاد، فالإفراط في إحلال الآلة محل البشر سيأخذنا لتصور زمن تسود فيه البطالة. وهو ما يتعارض مع أيسر قواعد المكسب والخسارة. فإذا كان البشر سيخرجون من سوق العمل، فكيف سيحصلون على الأموال التي سيضخونها بالتبعية في الدورة الاقتصادية؟ وإذا كان توظيف الخوارزميات الذكية سيخفف من سعر التكلفة على أرباب العمل، فإن ذلك لا ينبغي أن يحصل في مقابل حرمان البشر من القيمة الوجودية للمهنة، التي تعرّف الإنسان وتكسبه مكانته الاجتماعية وتكرّس خبرته المكتسبة لتطوير خوارزميات الذكاء الاصطناعي، في دورة تكاملية لا يلغي فيها طرفٌ طرفًا آخرَ.  

القانون الثاني: لا ينبغي للأنظمة الروبوتية أن تنتحل الصفة البشرية

يقول باسكوالي: إن تزوير الصفة البشرية مشابه لتزوير العملة، إذ سيُفقِد الإنسانية قيمتها. وهو يُذكِّرنا بحبكة مسلسل «وِست وورلد» (West World)، إذ نصل إلى مستوى لا يمكن التفريق فيه بين الإنسان والآلة الذكية لا هيئةً ولا ملمسًا ولا رائحةً. هل نريد حقًّا أن نعيش في عالم كهذا؟

إلا أن انتحال السمة البشرية يشكل تعقيدًا على مستويات أقل من سيناريو «وِست وورلد». فالتسويق الرقمي، وخطوط الاستشارة النفسية، وحتى مكالمات الاستبيانات الإحصائية، كلها لا بأس أن تقوم بها برمجيات ذكية، لكن بشرط أن نعرف أنها كذلك، وألا نُوهَم بأننا نتعامل مع بشر على الطرف المقابل. 

يوجد أكثر من مسوِّغ لذلك. فوجه الإنسان وصوته؛ الكينونة البشرية عمومًا، جديرة بالاحترام وبمستوى معين من التواصل الراقي، ما لن نقدمه للخوارزم الذكي. وأنت إذا كنت شرطيًّا أو مستشارًا أسريًّا وانهالت عليك اتصالات من جهات لا يمكنك التفريق إن كانت بشرية أو آلية، فإنك قد تتجاهل كل اتصال يرِدك؛ الأمر الذي قد تكون له تبعات وخيمة، وقد يحرم إنسانًا حقيقيًّا خدمةً هو في أمسّ الحاجة إليها.

الشيء نفسه ينطبق على قطاع التعليم ومؤسسات القضاء، إذ ينبغي أن يكون التواصل البشري على أعلى مستوى من التفاعلية والشفافية. إذا كان خوارزم ذكي سيمتحنني دراسيًّا، فلا بأس، لكن يجب أن أعرف، وإلا فإن الانعكاسات النفسية والاجتماعية لهذا الخلط ستقود إلى تدهور العلاقة بين البشر في سبيل تمكين تقنيات ذكية الغرض المفترض لها تطويرُ التجرِبة البشرية والارتقاء بجودة الحياة. 

لكن باسكوالي يجادل، على الطرف الآخر، بأن مجال العلاقات الشخصية والحميمية قد يشكل استثناء لهذا القانون، فهذه مسألة راجعة للمستخدم البشري!

القانون الثالث: يجب ألا تعزز الأنظمة الروبوتية سباقات التسلح الصفرية

السباق الصفري أو اللعبة الصفرية، هي تلك التي تنتهي بفائز كسب كل النقاط، وخاسر لا يملك شيئًا. في كرة القدم مثلًا فإن الفريقين لديهما الفرصة للتسجيل أو حتى التعادل. لكن إذا تعاملنا مع حدث كالسرقة، فمكسب اللص خسارة كاملة لك! 

يطبق باسكوالي هذه الفكرة على التطبيقات العسكرية والأمنية في زمن الذكاء الاصطناعي. فالطائرات بلا طيار وأنظمة الرقابة الدائمة حولت الحرب إلى ممارسة مستمرة على مدار 24 ساعة، دون حق الرد للطرف الأقل تقدمًا تقنيًّا، وهو ما ستكون له تبعات قانونية وسياسية مدمرة. ويحذر باسكوالي من أن المؤسسات العسكرية، بنزعتها لتخطي القوانين بذريعة حفظ الأمن القومي، قد تحوّل مجتمعات بأسرها إلى معتقلات مفتوحة، يسعها مراقبة أيٍّ من أفرادها بل وتصفيته في أي وقت. ما يحوّل حالة الحرب، بكل تعقيداتها ومحاذيرها التقليدية إلى حالة سائلة مفتوحة النهايات.

في الحقيقة، إن معضلة «الروبوت القاتل» تشكل خرقًا شنيعًا لقانون آزِموﭪ الأول القديم. وتوجد مساعٍ حقوقية دولية لتقنين هذه الحالة التي وإن بدا لوهلة أنها تحمي الجندي البشري من أخطار المواجهة المباشرة، إلا أنها تحوّل ممارسة القتل باسم الحرب إلى فعل آلي يُمارس عن بعد ويُهدر القيمة البشرية، ناهيك بتبعات تطوير التقنيات الأمنية وتحويلها المجتمعات إلى حظائر للرقابة والتحكم الدائمين، بما يتعارض مع أيسر قواعد الحرية الشخصية. كما أن غياب الرقابة القانونية على هذه التطبيقات من شأنه أن يخرجها عن السيطرة بما يناقض هدفها المعلن من حفظ السلم العام.

القانون الرابع: على الأنظمة الروبوتية أن تُفصح عن هوية صانعيها ومالكيها والمستفيدين منها

بوجود شركات تقنية ذات سيولة نقدية عالية وقدرة على تقصي تفاصيل حياتنا، فإننا يجب ألّا نعيش في عالم لا نعرف مَن أو مَا كنه الكيان الذي يمثله. الأمر مشابه لأن تعيش في منزل لا تعرف هوية سكانه. إذا كانت فوق رأسك طائرة بلا طيار، فإن لك الحق في أن توجّه جوالك ناحيتها لتعرف من يملكها وما البيانات التي تجمعها. المسألة تتجاوز محض حفظ خصوصية بياناتنا إلى وضع إطار قانوني ملزم يجنبنا فوضى عبثية في ظل تفشي تقنيات الذكاء الاصطناعي. كما أن هذا القانون يفترض أن يجنبنا الخوف من الروبوتات المارقة المتمردة على أسيادها، التي قد تنفلت من رقابة صانعيها لتنفذ أجنداتها الشخصية. 

ماذا عن الحرية بعد سيطرة الروبوتات؟

عالمنا يواكب ثورة رقمية عظيمة، ستؤثر تقريبًا على كل جوانب الاقتصاد والحياة الشخصية. هذه المرة، لن يقود التغيير البخار أو الكهرباء، بل الذكاء الاصطناعي وتقنيات تعلم الآلة.

22 نوفمبر، 2018

على سبيل المثال، فإن الخوارزميات الذكية التي تشغل منصات التواصل الاجتماعي، صار يسعها أن تختلق الأخبار والإشاعات لتؤثر في الرأي العام وتوجّه نتائج الانتخابات، بل وتنشر الأضاليل. ومع أن قانون باسكوالي الأول يقرر أن العامل البشري يجب أن يكون حاضرًا في صناعة المادة الخبرية، فإن القانون الرابع سيجعلنا نعرف: من يقف وراء ما يصل إلينا من أخبار؟

مساعد لا بديل

يشدد باسكوالي خلال طرحه، على مفهوم «تعزيز الذكاء» (Intelligence Augmentation) أو (IA) بديلًا للذكاء الاصطناعي (AI). فإذا كان الذكاء الاصطناعي يهدف إلى الاستعاضة عن المعلم أو الطبيب البشري بواحد آلي، فإن الذكاء المعزز يهدف إلى مساعدة الطرف البشري ليصبح أفضل، بمعاونة قدرات الذكاء الاصطناعي. وإذا كانت قوانين آزِموﭪ التي وُضِعت قبل ستين عامًا تهدف إلى مساعدة البشر وتجنيبهم أذى الروبوتات، فإن قوانين باسكوالي تهدف إلى إعطاء كل البشر، من خلال القنوات التشريعية والقانونية، المجال لتقرير الكيفية التي ستتدخل بها الآلة الذكية في حياتهم، بعيدًا عن أجندات كبار المطورين وشطحاتهم التجريبية. 

الإنسانالذكاء الاصطناعيالروبوتالقانونالمستقبل
المقالات العامة
المقالات العامة
منثمانيةثمانية