النتائج 1 إلى 2 من 2
الموضوع:

الروبوتات المنزلية رفاهية محفوفة بتهديدات خفية

الزوار من محركات البحث: 5 المشاهدات : 89 الردود: 1
جميع روابطنا، مشاركاتنا، صورنا متاحة للزوار دون الحاجة إلى التسجيل ، الابلاغ عن انتهاك - Report a violation
  1. #1
    من أهل الدار
    تاريخ التسجيل: October-2013
    الجنس: ذكر
    المشاركات: 83,427 المواضيع: 80,111
    التقييم: 20796
    مزاجي: الحمد لله
    موبايلي: samsung j 7
    آخر نشاط: منذ 3 ساعات

    الروبوتات المنزلية رفاهية محفوفة بتهديدات خفية

    الروبوتات المنزلية رفاهية محفوفة بتهديدات خفية
    يحذر الباحثون من أن أنظمة تعتمد على الذكاء الاصطناعي في اتخاذ القرارات قد تكون عرضة للاختراق والتلاعب بها


    أحد الروبوتات المنزلية يتولى مهمة إعداد الطعام (رويترز)
    ملخص
    في وسط السباق نحو الأتمتة وخضم الإعلانات المتتالية للروبوتات المنزلية التي صممت لرفاهية البشرية، امتزج الفضول بالمخاوف، وتُرك تساؤل بأنه هل يمكن لتلك الروبوتات التي صممت لخدمة البشر أن تندمج في حياتنا اليومية وتكون آمنة بما يكفي أم إن هناك أخطاراً خفية لم تكتشف بعد؟
    يبدو أن الأفكار التي كانت يوماً ما حبيسة أفلام الخيال العلمي السينمائية بدأت تتحول إلى واقع في الأعوام الأخيرة إذ تسارعت وتيرة الابتكارات في مجال الروبوتات بصورة مذهلة، وباتت الشركات الكبرى تتسابق لتقديم نماذجها الذكية التي تهدف إلى رفاهية الحياة البشرية.

    وجاء إعلان إيلون ماسك عن روبوت "تسلا" المنزلي الذكي "أوبتيموس" خلال فعالية الشركة العالمية "We, Robot" في أكتوبر (تشرين الأول) الجاري، بوعود لتحقيق قفزة نوعية في استخدامات الروبوتات في الأعمال المنزلية، وذلك بتسخيره لحمل الأشياء وتقديم الأطباق والتفاعل مع الأشياء باللمس والعناية بالأطفال والكلاب والنباتات، فإنه خلال المؤتمر لم تظهر روبوتات "أوبتيموس" أياً من تلك المهارات واكتفت بالسير وسط الحضور، وتقديم المشروبات إليهم وبعض الهدايا.
    وعلى نفس المسار كشفت شركة "إكس1" النرويجية في أغسطس (آب) الماضي، هي الأخرى عن روبوتها "نيو بيتا" للأعمال المنزلية بوصفه نموذجاً أولياً لروبوت بشري ذي قدمين مخصص للاستخدام المنزلي.
    وفي وسط هذا السباق نحو الأتمتة وخضم الإعلانات المتتالية للروبوتات المنزلية التي صممت لرفاهية البشرية، امتزج الفضول بالمخاوف، وترك تساؤل بأنه هل يمكن لتلك الروبوتات التي صممت لخدمة البشر أن تندمج في حياتنا اليومية وتكون آمنة بما يكفي أم إن هناك أخطاراً خفية لم تكتشف بعد؟
    إلحاق الأذى بالبشر
    أستاذ الهندسة الإلكترونية محمد القاسم قال في حديثه إلى "اندبندنت عربية"، إن "تلك الروبوتات قد تكون جزءاً من حياتنا اليومية في المستقبل، ولكننا لا زلنا بعيدين من تحقيق هذا الهدف والأهم من ذلك هو ضمان أمانها وكفاءتها قبل إدخالها إلى المنازل، وهو أمر يتطلب وقتاً طويلاً، إذ نعيش حالياً مرحلة التجارب الأولية وعلى الروبوتات التي تسير على قدمين أن تدخل المصانع أولاً قبل أن تصبح شائعة في البيوت".


    وأضاف، أنه "في المستقبل وعندما تصل الروبوتات إلى مستوى متقدم فإنها من المحتمل أن تكون عرضة للاختراق"، لافتاً الانتباه إلى أن الروبوتات الحالية لا تزال غير مستقلة بذاتها، بل يتم التحكم بها بصورة بشرية، بما في ذلك روبوتات مثل تلك التي طورها إيلون ماسك.
    وفي الحديث عن استخدام الآلة للإضرار بالبشرية، أوضح القاسم أن البشر بدأوا بالفعل في استخدام الروبوتات في الحروب وإلحاق الأذى بأقرانهم، مثل الروبوتات الشبيهة بالكلاب ذات الأرجل الأربع، وذلك قبل أن تصل الروبوتات إلى مرحلة الاستقلالية الكاملة. وأكد أنه عندما تصبح الروبوتات قادرة على العمل بصورة ذاتية، فإن خطر الاختراق سيزداد، مما قد يفتح الباب أمام استخدامها في تنفيذ اغتيالات تحت سيطرة المخترق.
    ثغرات أمنية
    وكشفت دراسة حديثة عن مخاوف من أن ثغرة أمنية كبيرة في أنظمة ذكاء اصطناعي في شأنها أن تهدد حياة البشر. وحذر الباحثون الذين اضطلعوا بالدراسة من أن أنظمة روبوتية تعتمد على نماذج من الذكاء الاصطناعي في اتخاذ قراراتها ربما تكون عرضة للاختراق والتلاعب بها، مما يعني أنها غير آمنة لأنها عرضة لتغيير سلوكها واستغلالها بطريقة تضر البشر.
    وتناول البحث الذي أجرته جامعة بنسلفانيا الأميركية ما يسمى النماذج اللغوية الكبيرة (large language models) أو اختصاراً "أل أل أم" (LLM)، وهي التكنولوجيا الذي تقوم عليه أنظمة ذكية عدة من قبيل روبوت الدردشة الشهير "تشات جي بي تي" كذلك تستخدم التكنولوجيا المعنية نفسها في توجيه روبوتات للتحكم في قرارات آلات نستخدمها في الحياة اليومية الحقيقية مثل المركبات وأجهزة منزلية ولكن تشوب هذه التكنولوجيا نقاط ضعف وثغرات أمنية يستطيع أن يستغلها "القراصنة" الإلكترونيون من أجل استخدام الأنظمة الذكية بطرق لم تكن مقصودة عند تصميمها.
    وقال البروفيسور في جامعة بنسلفانيا جورج باباس، إن "دراستنا تظهر أن النماذج اللغوية الكبيرة في الوقت الحالي ليست آمنة بما فيه الكفاية عند دمجها مع أجهزة وآلات تؤدي وظائفها ومهامها في بيئات حقيقية وتؤثر في محيطها" مثل المنازل والمصانع والشوارع.
    البروفيسور باباس وزملاؤه أثبتوا أنه بالإمكان تجاوز عدد من حواجز الحماية الأمنية في مجموعة من الأنظمة الذكية المستخدمة حالياً، مثل نظام القيادة الذاتية للسيارة، الذي يمكن اختراقه لجعل السيارة تعبر التقاطعات والمعابر بصورة غير آمنة مثل إشارات المرور ومناطق عبور المشاة، مما يجعلها عرضة للحوادث. وحذر الباحثون من أنه ليس كافياً وضع حد لهذه الثغرات المشار إليها، بل لا بد من إعادة تفكير شامل في كيفية تصميم هذه الأنظمة على نحو يضمن مأمونية استخدامها.
    حادثة سابقة
    وفي إحدى الحوادث التي يتسبب بها "الإنسان الآلي" في العالم تعرض أحد مهندسي شركة "تسلا" الأميركية المصنعة لروبوت "أوبتيموس" لهجوم من قبل روبوت خلال عطل فني في مصنع "غيغا" تكساس التابع للشركة، مما دفع الإدارة إلى إعلان حالة الطوارئ والضغط على زر إيقاف التشغيل الفوري وفق ما نشرته صحيفة "ديلي ميل" البريطانية عام 2023.
    وهوجم الموظف من قبل الروبوت المصمم لالتقاط أجزاء السيارة ونقلها، إذ ثبته وغرس مخالبه المعدنية في ظهر الموظف وذراعه، تاركاً أثراً من الدم على أرضية المصنع، وتسببت الحادثة في ترك الضحية مع "جرح مفتوح" في يده اليسرى، في ما كشف عن هذه الحادثة في تقرير الإصابة لعام 2021 الذي تم تقديمه إلى مقاطعة ترافيس والمنظمين الفيدراليين بالولايات المتحدة لكن الكشف عنه كان في أواخر 2023 من قبل الصحيفة البريطانية.

  2. #2
    من أهل الدار
    تاريخ التسجيل: November-2024
    الجنس: أنثى
    المشاركات: 1,799 المواضيع: 34
    التقييم: 4241
    شكراً على النقل

تم تطوير موقع درر العراق بواسطة Samer

قوانين المنتديات العامة

Google+

متصفح Chrome هو الأفضل لتصفح الانترنت في الجوال