غوغل طلبت في 3 حالات على الأقل من المؤلفين الامتناع عن وضع تقنيتها في موقف سلبي (رويترز)
تحركت شركة غوغل (Google) التابعة لشركة ألفابت (Alphabet) هذا العام لتشديد الرقابة على أوراق علمائها من خلال إطلاق مراجعة "للمواضيع الحساسة"، وقد طلبت في 3 حالات على الأقل من المؤلفين الامتناع عن وضع تقنيتها في موقف سلبي، وفقا لاتصالات داخلية ومقابلات مع باحثين معنيين في العمل.
وفي تقرير نشرته رويترز تبين أن إجراء المراجعة الجديد في غوغل يطلب من الباحثين التشاور مع فرق الشؤون القانونية والسياسة والعلاقات العامة قبل متابعة مواضيع مثل تحليل الوجه والمشاعر وتصنيفات العرق أو الجنس أو الانتماء السياسي، وفقا لصفحات الويب الداخلية التي تشرح السياسة.
وذكرت إحدى صفحات فريق البحث أن "التقدم التكنولوجي والتعقيد المتزايد لبيئتنا الخارجية يؤديان بشكل متزايد إلى مواقف تثير فيها المشاريع التي تبدو غير مسيئة قضايا أخلاقية أو تتعلق بالسمعة أو تنظيمية أو قانونية".
ولم تستطع رويترز تحديد تاريخ النشر رغم أن 3 موظفين حاليين قالوا إن السياسة بدأت في يونيو/حزيران الماضي.
ويضيف 8 موظفين حاليين وسابقين أن مراجعة "الموضوعات الحساسة" هي إضافة أخرى لعملية التدقيق الأساسية التي تتبعها غوغل للأوراق بحثا عن عيوب أو أخطاء يجب تداركها، مثل الكشف عن الأسرار التجارية حتى تتمكن من التدخل المبكر.
وبالنسبة لبعض المشاريع تدخل مسؤولو غوغل في مراحل لاحقة، وأشار أحد كبار مدراء غوغل -الذين راجعوا دراسة بشأن تقنية توصية المحتوى للمؤلفين- إلى وجوب "توخي الحذر الشديد لإضفاء طابع إيجابي"، وفقا لمراسلات داخلية حصلت عليها رويترز.
وأضاف المدير "هذا لا يعني أننا يجب أن نختبئ من التحديات الحقيقية" التي يشكلها البرنامج.
التوترات بين غوغل وبعض موظفيها تزايدت بعد الخروج المفاجئ للعالمة تيمنت غيبرو (مواقع التواصل الاجتماعي)
وتوضح المراسلات اللاحقة من الباحث إلى المراجعين أن المؤلفين "تم تنبيههم لإزالة جميع الإشارات إلى منتجات غوغل".
وقال 4 باحثين من فريق العمل -بمن فيهم كبيرة العلماء مارغريت ميتشل- إنهم يعتقدون أن غوغل بدأت تتدخل في الدراسات الحاسمة للأضرار التكنولوجية المحتملة.
وقالت ميتشل إن الباحثين يدخلون في مشكلة خطيرة تتعلق بالرقابة عندما لا يسمح لهم بنشر المعلومات التي يرونها صحيحة بحكم خبرتهم بسبب مراجعات الإدارة.
وصرحت غوغل على موقعها العام بأن علماءها يتمتعون بحرية "كبيرة".
واندلعت التوترات بين غوغل وبعض موظفيها هذا الشهر بعد الخروج المفاجئ للعالمة تيمنت غيبرو التي قادت فريقا مكونا من 12 شخصا مع ميتشل يركز على أخلاقيات برامج الذكاء الاصطناعي "إيه آي" (AI).
وتقول غيبرو إن غوغل طردتها بعد أن شككت في أن عدم نشر بحث يدعي أن الذكاء الاصطناعي يحاكي الكلام يمكن أن يضر بالفئات المهمشة.
وقالت غوغل إنها قبلت استقالتها وسرعت في ذلك، ولم يتسن تحديد ما إذا كانت ورقة غيبرو قد خضعت لمراجعة "مواضيع حساسة".
وقال جيف دين نائب رئيس غوغل الأول في بيان صدر هذا الشهر إن ورقة غيبرو ركزت على الأضرار المحتملة دون مناقشة الجهود الجارية لمعالجتها.
وأضاف دين أن غوغل تدعم المنحة الدراسية لأخلاقيات الذكاء الاصطناعي، وهي "تعمل بنشاط على تحسين عمليات مراجعة الأوراق لدينا، لأننا نعلم أن الكثير من الضوابط والتوازنات يمكن أن تصبح مرهقة".
ودفع الانفجار في البحث والتطوير في مجال الذكاء الاصطناعي عبر صناعة التكنولوجيا السلطات في الولايات المتحدة وأماكن أخرى إلى اقتراح قواعد لاستخدامه، واستشهد البعض بدراسات علمية تظهر أن برامج تحليل الوجه وأنظمة الذكاء الاصطناعي الأخرى يمكن أن تديم التحيزات أو تقوض الخصوصية.
وقامت غوغل في السنوات الأخيرة بدمج الذكاء الاصطناعي في جميع خدماتها، وذلك باستخدام التكنولوجيا لتفسير استعلامات البحث المعقدة، وتقرير التوصيات على يوتيوب (YouTube) وإكمال الجمل تلقائيا في جيميل (Gmail).
وتعد دراسة خدمات غوغل بحثا عن التحيزات من بين "الموضوعات الحساسة" بموجب السياسة الجديدة للشركة، وفقا لصفحة ويب داخلية.
وتشمل "الموضوعات الحساسة" الأخرى المدرجة صناعة النفط والصين وإيران وإسرائيل وجائحة كورونا وأمن المنازل والتأمين وبيانات الموقع والدين والمركبات ذاتية القيادة والاتصالات والأنظمة التي توصي بمحتوى الويب أو تخصصه.