Logo Logo
الرئيسية
البرامج
جدول البرامج
الأخبار
مع السيد
مرئيات
تكنولوجيا ودراسات
أخبار العالم الإسلامي
تغطيات وتقارير
أخبار فلسطين
حول العالم
المزيد
مسلسلات
البرامج الميدانية
البرامج التخصصية
برامج السيرة
البرامج الثقافية
برامج الأطفال
البرامج الوثائقية
برامج التغطيات والتكنولوجيا
المزيد

مُهندسة سابقة بـ"جوجل" تُحذر من "الروبوتات القاتلة"

16 أيلول 19 - 10:15
مشاهدة
1907
مشاركة
قالت إحدى كبار مهندسي برامج عملاق التكنولوجيا "جوجل"، والتي استقالت العام الماضي من منصبها، إن هناك خطرا حقيقيا من ابتكار جيل جديد من الأسلحة المستقلة، أي التي تعمل بالذكاء الاصطناعي، والتي وصفتها لورا نولان، بـ"الروبوتات القاتلة".


وطالبت نولان التي استقالت من منصبها في "جوجل" العام الماضي، احتجاجا على إرسالها للعمل على مشروع لتطوير تكنولوجيا الطائرات المسيرة لدى الجيش الأميركي، بحظر جميع الأسلحة التي تعمل بالذكاء الاصطناعي.

ونقلت صحيفة "ذي غارديان" البريطانية، قول نولان، إن للطائرات التي تعمل من تلقاء نفسها، دون تحكم بشري، قدرة هائلة على ارتكاب "فظاعات لم تكن مبرمجة لفعلها من قبل".

وانضمت نولان إلى حملة "حظر الروبوتات القاتلة"، وأطلعت دبلوماسيين من الأمم المتحدة، في نيويورك، وجنيف، على مخاطر الأسلحة المستقلة، قائلة إن "احتمال وقوع كارثة يتناسب مع عدد هذه الآلات التي ستكون في منطقة معينة في الوقت ذاته". حيث أنها قد ترتكب فظائع وعمليات القتل غير قانونية حتى بموجب قوانين الحرب، خاصة إذا تم نشر مئات أو الآلاف من هذه الآلات".

وأضافت: "قد تكون هناك حوادث واسعة النطاق لأن هذه الأشياء ستبدأ في التصرف بطرق غير متوقعة. ولهذا السبب يجب أن تخضع أي أنظمة أسلحة متطورة إلى سيطرة إنسانية حقيقة، وإلا يجب حظرها لأنها غير متوقعة وخطيرة جدًا".

وذكرت الصحيفة، أن الدور السابق لنولان في "جوجل" تلخص، بانضمامها لفريق من المهندسين أوكلت لهم مهمة، تطوير تقنية ذكاء اصطناعي توفر على العاملين في الجيش الأميركي، فحص الفيديوهات التي تلتقطها الطائرات المسيرة، لتحديد "الأهداف العدائية المحتملة"، أي أن هذه الأجهزة سُتميز هذه الأهداف بسرعة فائقة دون الحاجة للعامل البشري.

واعتبرت نولان أنها كانت "جزءا من سلسلة القتل؛ وأن هذا سيؤدي في النهاية إلى المزيد من الأشخاص الذين يستهدفون ويٌقتلون على أيدي الجيش الأميركي في أماكن مثل أفغانستان".

وأوضحت نولان أن تطوير طائرات ذاتية التحكم يعني أنها ستكون أيضا خاضعة للقوى الخارجية كالطقس، أو عدم قدرة الآلة على فهم السلوك الإنساني المُعقد، مما قد يُخرجها عن مسارها لترتكب فظائع.
Plus
T
Print
كلمات مفتاحية

تكنولوجيا ودراسات

روبوتات

تكنولوجيا

طائرات

يهمنا تعليقك

أحدث الحلقات

حتّى العشرين

إدارة المشاعر..مهمة تدرك | حتى العشرين

21 تموز 25

من الإذاعة

منتخب لبنان لكرة السلة وكأس آسيا : إستعدادات وتحضيرات | STAD

21 تموز 25

يسألونك عن الإنسان والحياة

يسألونك عن الإنسان والحياة | 21-7-2025

21 تموز 25

يسألونك عن الإنسان والحياة

يسألونك عن الإنسان والحياة | 18-7-2025

18 تموز 25

من الإذاعة

صيف ساخن | رأيك بهمنا

17 تموز 25

يسألونك عن الإنسان والحياة

يسألونك عن الإنسان والحياة | 17-7-2025

17 تموز 25

من الإذاعة

السلامة العامة في عهدة الذكاء الإصطناعي | سلامتك

16 تموز 25

يسألونك عن الإنسان والحياة

يسألونك عن الإنسان والحياة | 16-7-2025

16 تموز 25

من الإذاعة

حوادث السير في لبنان : بين التهور والإهمال | حكي مسؤول

15 تموز 25

يسألونك عن الإنسان والحياة

يسألونك عن الإنسان والحياة | 15-7-2025

15 تموز 25

حتّى العشرين

رفريش دماغي | حتى العشرين

14 تموز 25

عناوين حسينيّة

عناوين حسينية مع السيد شفيق الموسوي | الحلقة التاسعة عشر

14 تموز 25

قالت إحدى كبار مهندسي برامج عملاق التكنولوجيا "جوجل"، والتي استقالت العام الماضي من منصبها، إن هناك خطرا حقيقيا من ابتكار جيل جديد من الأسلحة المستقلة، أي التي تعمل بالذكاء الاصطناعي، والتي وصفتها لورا نولان، بـ"الروبوتات القاتلة".

وطالبت نولان التي استقالت من منصبها في "جوجل" العام الماضي، احتجاجا على إرسالها للعمل على مشروع لتطوير تكنولوجيا الطائرات المسيرة لدى الجيش الأميركي، بحظر جميع الأسلحة التي تعمل بالذكاء الاصطناعي.

ونقلت صحيفة "ذي غارديان" البريطانية، قول نولان، إن للطائرات التي تعمل من تلقاء نفسها، دون تحكم بشري، قدرة هائلة على ارتكاب "فظاعات لم تكن مبرمجة لفعلها من قبل".

وانضمت نولان إلى حملة "حظر الروبوتات القاتلة"، وأطلعت دبلوماسيين من الأمم المتحدة، في نيويورك، وجنيف، على مخاطر الأسلحة المستقلة، قائلة إن "احتمال وقوع كارثة يتناسب مع عدد هذه الآلات التي ستكون في منطقة معينة في الوقت ذاته". حيث أنها قد ترتكب فظائع وعمليات القتل غير قانونية حتى بموجب قوانين الحرب، خاصة إذا تم نشر مئات أو الآلاف من هذه الآلات".

وأضافت: "قد تكون هناك حوادث واسعة النطاق لأن هذه الأشياء ستبدأ في التصرف بطرق غير متوقعة. ولهذا السبب يجب أن تخضع أي أنظمة أسلحة متطورة إلى سيطرة إنسانية حقيقة، وإلا يجب حظرها لأنها غير متوقعة وخطيرة جدًا".

وذكرت الصحيفة، أن الدور السابق لنولان في "جوجل" تلخص، بانضمامها لفريق من المهندسين أوكلت لهم مهمة، تطوير تقنية ذكاء اصطناعي توفر على العاملين في الجيش الأميركي، فحص الفيديوهات التي تلتقطها الطائرات المسيرة، لتحديد "الأهداف العدائية المحتملة"، أي أن هذه الأجهزة سُتميز هذه الأهداف بسرعة فائقة دون الحاجة للعامل البشري.

واعتبرت نولان أنها كانت "جزءا من سلسلة القتل؛ وأن هذا سيؤدي في النهاية إلى المزيد من الأشخاص الذين يستهدفون ويٌقتلون على أيدي الجيش الأميركي في أماكن مثل أفغانستان".

وأوضحت نولان أن تطوير طائرات ذاتية التحكم يعني أنها ستكون أيضا خاضعة للقوى الخارجية كالطقس، أو عدم قدرة الآلة على فهم السلوك الإنساني المُعقد، مما قد يُخرجها عن مسارها لترتكب فظائع.
تكنولوجيا ودراسات,روبوتات, تكنولوجيا, طائرات
Print
جميع الحقوق محفوظة, قناة الإيمان الفضائية