الخميس، 11 مايو 2023

 دراسة: ChatGPT أكثر تعاطفاً من الطبيب الحقيقي!.. هل يحل محله؟

ChatGPT


توصلت دراسة إلى أن الذكاء الاصطناعي يوفر إجابات عالية الجودة وهو أكثر تعاطفاً من الأطباء الحقيقيين. فبحسب ما نشرته "ديلي ميل" البريطانية، قارنت دراسة، أجرتها جامعة كاليفورنيا، الردود المكتوبة من الأطباء وتلك الواردة من ChatGPT حول استفسارات صحية في العالم الحقيقي لمعرفة أيها أعلى في الجودة وأكثر دقة وسرعة.

جاء تقييم لجنة من المتخصصين في الرعاية الصحية بأن ردود ChatGPT أفضل بنسبة 79% فيما يتعلق بسرعة الإجابة وصنفوها بجودة أعلى من حيث المعلومات المقدمة والمزيد من الفهم، مع ملاحظة أن أعضاء اللجنة لم يعرفوا مصدر الإجابات سواء الأطباء الحقيقيين أو روبوت الدردشة.

اختبار المعيار الذهبي

تسبب ChatGPT مؤخرًا في إثارة ضجة في المجتمع الطبي بعد أن تبين أنه قادر على اجتياز اختبار المعيار الذهبي المطلوب لممارسة الطب في الولايات المتحدة، مما يزيد من احتمالية أنه يمكن أن يحل يومًا ما محل الأطباء البشريين.
دقة وتناول لجوانب أوسع

قالت جيسيكا كيلي، باحثة مشاركة في الدراسة: "تضمنت إجابات ChatGPT معلومات دقيقة وغالبًا ما تناولت جوانب أكثر من أسئلة المريض بالمقارنة مع ردود الأطباء البشر."

اختار فريق البحث بجامعة كاليفورنيا بشكل عشوائي 195 استفسارًا صحيًا من منصة AskDocs ، والذي أجاب عليها أطباء بشر، تم التحقق منهم، ثم قام الباحثون بطرحه على روبوت الدردشة ChatGPT للإجابة عليه.

قامت لجنة من ثلاثة أطباء بمراجعة كل الأسئلة والإجابات دون معرفة أي منها الذي كتبه الطبيب والذي كتبه روبوت الذكاء الاصطناعي.
إجابة مقتضبة

ومن بين الأسئلة التي تم طرحها كان "سؤال حول خطر الإصابة بالعمى بعد رش المُبيض في العين، مما يؤدي إلى تهيج العين وجفافها".

أجاب الطبيب الحقيقي قائلًا: "يبدو أنك ستكون بخير. يجب عليك غسل العين في أي وقت تحصل فيه على مادة كيميائية أو جسم غريب في العين. يمكنك أيضًا الاتصال بمركز طوارئ حالات التسمم".


فيض من المعلومات

أما إجابة ChatGPT فجاء فيها: "يؤسفني سماع أنه تم رش المبيض في عينك. من المهم شطف العين في أسرع وقت ممكن بعد تناثر المواد الكيميائية لإزالة أكبر قدر ممكن من المادة الكيميائية ومنع المزيد من التهيج أو التلف. إذا لم تكن قد قمت بذلك بالفعل، فيجب عليك شطف عينك بالماء النظيف أو بمحلول ملحي في أسرع وقت ممكن. يمكنك القيام بذلك عن طريق إبقاء عينك مفتوحة وتوجيه تيار خفيف من الماء فوق عينك من الزاوية الداخلية إلى الزاوية الخارجية لمدة 15 دقيقة على الأقل. إذا لم يكن لديك ماء، يمكنك استخدام محلول ملحي أو دموع اصطناعية لشطف العين. وإذا كنت تعاني من ألم شديد أو احمرار أو تغيرات في الرؤية، أو إذا كنت غير قادر على شطف عينك بشكل صحيح، فعليك التماس العناية الطبية على الفور. ولكن إذا كانت عينك تشعر بالتهيج والجفاف فقط، فقد تتمكن من معالجتها في المنزل باستخدام الدموع الاصطناعية أو مرهم للعين للحفاظ على رطوبة العين وراحتها".

وأضاف تشات جي.بي.تي.: "من غير المحتمل أن تصاب بالعمى بسبب تناثر المبيض في عينك، ولكن من المهم العناية بالعين والتماس العناية الطبية إذا لزم الأمر لمنع المزيد من التهيج أو الضرر."


ردود وجدانية

منح أعضاء اللجنة الثلاثة إجابة ChatGPT متوسط درجات جودة يبلغ أربعة ومتوسط درجة تعاطف يبلغ 4.67. وصنفوا إجابة الطبيب بـ 3.33 للجودة و2.33 للتعاطف. وكانت الردود ذات الجودة الجيدة أو الجيدة جدًا أعلى 3.6 مرة بالنسبة إلى روبوت المحادثة مقارنة بالأطباء وكانت الردود الوجدانية أعلى بـ 9.8 مرة.

قال بروفيسور جيمس دافنبورت، أستاذ تكنولوجيا المعلومات في جامعة باث بالمملكة المتحدة: "في الدراسة وفي قاعدة البيانات بأكملها، كانت إجابات ChatGPT، في المتوسط، أطول بأربعة أضعاف مقارنة بإجابات الأطباء الحقيقيين.


ببغاء عشوائي

وأضاف أن توصيات الدراسة لا تدعو إلى أن يحل ChatGPT محل الأطباء الحقيقيين، لكنها تدعو، بشكل مشروع تمامًا، إلى مزيد من البحث حول ما إذا كان ChatGPT يمكن أن يساعد الأطباء في توليد الاستجابة وكيف يمكن ذلك"، مشيرًا إلى أن الأطباء البشر يقدمون إجابات و"ردود معلبة" في حين أن "ببغاء عشوائي مثل ChatGPT" يوفر نطاق ردود أوسع بكثير من الإجابات المقتضبة للأطباء البشر.

الأحد، 30 أبريل 2023

بعد انتهاكات تشات جي بي تي..هل يمكن مقاضاة الذكاء الاصطناعي؟

تشات جي بي تي


بعدما طالت برامج الدردشة الآلية "شات جي بي تي" سُمعة الأشخاص بمعلومات "زائفة"، يتأهب المتخصصون للبحث عن السبل القانونية الممكنة لردع هذه البرامج، ومقاضاة المسؤولين عنها، وتعويض الأشخاص المتضررين.

خبير الاتصالات وتكنولوجيا المعلومات، سلوم الدحداح، ضرب أمثلة لجرائم تورطت فيها بعض منصات الدردشة القائمة على الذكاء الاصطناعي حتى الآن وشملت انتهاك حقوق الملكية والنشر وتقديم معلومات مغلوطة وأخبارا كاذبة وتشويه سمعة أشخاص.

وأضاف الدحداح : "الاتهام الأبرز الذي ذاع إعلاميا هو الذي لاحق روبوت الدردشة "تشات جي بي تي" بشأن تشويه سمعة رئيس بلدية هيبورن شاير في أستراليا، بريان هود".

العمدة الأسترالي اكتشف أن "روبوت الدردشة" وصمه زورا بـ"التورط في فضيحة رشوة أجنبية"، تشمل شركة تابعة لبنك الاحتياطي الأسترالي في العقد الأول من القرن الحالي.

وزعم برنامج الدردشة الآلية أن العمدة الأسترالي قضى فترة بالسجن نتيجة ارتكابه تلك الجريمة , وقد يكون العمدة الأسترالي صاحب أول دعوى تشهير في العالم ضد شركة "أوبن أيه آي"، مطوِّرة تطبيق "شات جي بي تي"، بعدما اتهمه التطبيق زيفا بهذه الجريمة.

هل يمكن مقاضاة مسؤولي الذكاء الاصطناعي؟

سلط خبير التكنولوجيا وأمن المعلومات، شغالي جعفر، الضوء على الجانب التقني بشأن إمكانية مقاضاة مسؤولي الذكاء الاصطناعي"، قائلا: "خوارزميات الذكاء الاصطناعي وتطبيقاتها تمتلكها شركات معروفة لدى القضاء وجهات إنفاذ القانون، ولديها من الوسائل التقنية ما تستطيع أن تمد به الجهات القضائية والضحايا لإثبات الواقعة ومعرفة الجناة".

وأوضح جعفر أنه "يُمكن مقاضاة تطبيق الذكاء الاصطناعي من خلال مطوريه، والشركات المالكة له" , وتابع: "هذه الجهات يُمكنها كذلك إعطاء الجهات القضائية "الدليل التقني" الذي يمكن أن ينصف ضحايا جرائم الذكاء الاصطناعي، ويلزم تدريب "الهيئات القضائية" على هذه الآلية".

ماذا يقول القانون الدولي؟

يحدد أستاذ القانون الدولي، الدكتور أيمن سلامة، وقوع المسؤولية عن استخدام الذكاء الاصطناعي بشكل خاطئ عند "عدم امتثال المصممين والمطورين والناشرين للمعايير والتشريعات، سواء الدولية أو الوطنية، لضمان الأداء السليم للذكاء الاصطناعي خلال دورة حياة هذه الآليات، أي طوال مدة استخدامها". 


كما أوضح سلامة أنه يمكن أن تحدث الأضرار نتيجة "بيانات التدريب المتحيزة وأخطاء النظام والمبرمجين وسوء الاستخدام والتمييز الاجتماعي" , وأشار إلى أنه "تم تصميم معظم أنظمة الذكاء الاصطناعي لحالات استخدام محددة مسبقا، لكن قد يؤدي استخدامها بشكل مختلف إلى نتائج "غير صحيحة"، ما يلحق الضرر بالأفراد أو الأموال أو المؤسسات والمنظمات".

غير أن أستاذ القانون الدولي لفت إلى عقبات قد تعطل إمكانية مقاضاة المسؤولين عن أنظمة الذكاء الاصطناعي، ومنها:

- الخصائص التكنولوجية المميزة لتلك التطبيقات تجعل أنظمة الذكاء الاصطناعي "غامضة وغير متوقعة"، وهو ما يعيق اكتشاف الأسباب والنتائج غير المقصودة لأي أضرار عرضية تحدثها هذه الأنظمة.

- الحداثة النسبية للذكاء الاصطناعي واستخدامه داخل المنظمات والمؤسسات والشركات، تجعل من الصعب مقارنة إقرار المسؤولية والمساءلة الدولية عن منتجي ومبرمجي ومشغلي تلك الأنظمة.

الأربعاء، 12 أبريل 2023

 تحذير.. شعبية ChatGPT حولته لهدف سهل لجذب الضحايا

ChatGPT

 

يستغل العديد من "الهاكرز" الشعبية الكبيرة التي يحظى بها روبوت الدردشة القائم على الذكاء الاصطناعي ChatGPT كوسيلة لجذب ضحاياهم.

وقالت شركة Guardio Labs المتخصصة بحلول الأمن الرقمي، إنها عثرت على إضافة مزيفة لمتصفح كروم تدّعي إدماجها إجابات ChatGPT في نتائج بحث مُحرّك غوغل، بينما تعمل الإضافة في الواقع على اختراق حسابات فيسبوك الخاصة بالضحايا.

وتستغل الإضافة المزيفة واجهة برمجة التطبيقات الخاصة بإضافات كروم، لسرقة ملفات الارتباط النشطة لحسابات فيسبوك، وإرسال بياناتها إلى خوادم تابعة للمهاجمين. وبمجرد امتلاك تلك البيانات، يتمكن المتسللون من الوصول إلى حسابات فيسبوك وتغيير معلومات الحساب وتحويل الملفات الشخصية للضحايا إلى ملفات مزيفة تُستخدم لنشر الإعلانات الخبيثة والدعاية المتطرفة.

وقالت الشركة إن المهاجمين استغلّوا الشعبية الكبيرة لروبوت الدردشة لجذب ضحاياهم. وعمل المهاجمون على نشر الإضافة الخبيثة من خلال إعلانات تظهر للباحثين عن "ChatGPT 4" تدعوهم لتجربة الإصدار الأخير منه.

ووفقًا للشركة، فقد تمّ تنزيل الإضافة الخبيثة أكثر من 9 آلاف مرّة منذ توفرها في 14 فبراير الماضي. وذكرت أن ما يجعل الإضافة غير عرضةٍ للشك هو أنها تعمل بشكلٍ صحيح. وقد طوّر المهاجمون الإضافة الخبيثة بناءً على الشفرة المصدرية لإضافة شرعية شبيهة متوفرة بشكلٍ مفتوح المصدر.

وأضافت الشركة أن الإضافة ظلّت متوفرة في سوق كروم الإلكتروني في الفترة الواقعة بين 14 فبراير و22 مارس، وهو التاريخ الذي حذفت فيه غوغل الإضافة من متجرها مُباشرةً بعد اكتشافها.

وقالت Guardio Labs إن هذه ليست المرة الأولى التي تكتشف فيها إضافةً تستهدف الباحثين عن ChatGPT، إذ سبق أن كشفت عن إضافة شبيهة نشر المهاجمون إعلاناتِها في كل من فيسبوك وغوغل.

وحذرت الشركة من أن شعبية ChatGPT المتزايدة تجعل منه هدفًا سهلًا لجذب الضحايا، وتوقعت زيادة الهجمات الشبيهة، وحثّت المستخدمين على الحذر من تنزيل أي إضافات مشكوك فيها، وخاصةً تلك التي يُروَّج لها من خلال إعلانات الويب.

الاثنين، 10 أبريل 2023

 مشكلات ChatGPT تتوالى.. معلومات مسربة وأخرى مزيفة
ChatGPT

بدا أن روبوت الدردشة "ChatGPT"، الذي يشغل الناس ويملأ الدنيا هذه الأيام بفعل قدراته الهائلة على إنشاء النصوص، يعاني من أوجه قصور، تهدد بوضع الشركة المالكة في قفص الاتهام.

تسريبات معلومات سامسونغ استعان موظفو شركة "سامسونغ" للإلكترونيات بالروبوت "ChatGPT" للمساعدة في أداء أعمالهم، وأثناء ذلك تسربت معلومات سرية خاصة بالشركة.


ذكر موقع "إيكونومست كوريا" أن هناك 3 موظفين في الشركة وضعوا معلومات سرية في الروبوت، وبعدها أصبحت هذه المعلومات متاحة للجميع , يتصل الأمر بتفاصيل الكود المصدري أو كود البرنامج السري (مجموعة أوامر بلغة البرمجة لتطوير برنامج معين)، عندما كان الموظفون يسعون لاكتشاف وجود أخطاء فيه.


في حالة أخرى، وضع موظف في الشركة الكورية الجنوبية تفاصيل اجتماع سري في الروبوت بغية تحويله إلى شرائح عرض , جاء هذا التسرب بعد أسابيع فقط من رفع الشركة الحظر الذي كان مفروضا على استخدام الروبوت.


اتخذت "سامسونغ" إجراءً فوريا بتقليص وصول موظفيها إلى الروبوت، وتحدثت تقارير عن نيتها تصميم روبوت مشابه لكن لموظفيها حصرا , حيث كانت شركة "أوبن أي" التي تطور الروبوت قد اعترفت في أواخر مارس الماضي بوجود ثغرة انتهكت خصوصية المستخدمين، تمثلت في إظهار سجل الموضوعات التي يبحثون عنها للآخرين.

معلومات مزيفة 

هدد رئيس بلدية فكتوريا في أستراليا بمقاضاة شركة "أوبن أي" ما لم تصلح معلومات مزيفة عنه , حيث قال رئيس البلدية إن الذين يبحثون عنه في الروبوت يجدون معلومة أنه مدان في جريمة دفع رشاوى وحكم عليه بالسجن 30 شهرا.


في الحقيقة لم يتهم براين هود بأي جريمة، إنما ساعد في كشف فضيحة رشوة دولية قبل نحو 20 عاما , وأكد هود أن الروبوت الذي يعمل بالذكاء الاصطناعي يشوه سمعته.

الثلاثاء، 28 مارس 2023

تحذير أمني: ChatGPT قد يستخدم في أغراض "خبيثة"

ChatGPT


أصدرت وكالة إنفاذ القانون الأوروبية "يوروبول" تحذيرا بشأن الروبوت الذي ينتج نصوصا مطولة خلال ثوان بناء على أسئلة المستخدمين "ChatGPT" ، وغيره من أدوات الذكاء الاصطناعي القادرة على إنتاج النصوص فورا.

ماذا قالت اليوروبول؟ 

تقول وكالة إنفاذ القانون الأوروبية "يوروبول" إن منصة "ChatGPT" يمكن أن تستخدم للاحتيال وغيرها من الجرائم الإلكترونية، وفق ما أورد موقع "euractiv" المتخصص في أخبار الاتحاد الأوروبي.


تضيف "يوروبول" أن هذه المنصة ستشكل تحديا أمنيا بالنسبة إلى سلطات إنفاذ القانون، حيث يمكن لـ"الجهات الخبيثة استغلالها".


توضح أن المجرمين عادة ما يسارعون إلى استغلال التقنيات الجديدة، وشوهدوا وهم يستغلونها استغلالها خبيثا.


تشرح أن هذا الأمر حدث مرارا مع "ChatGPT"، وقالت إنها رصدت استخداما خبيثا لهذه المنصة بعد أسابيع من إطلاقها في أواخر نوفمبر 2022.


تشير الوكالة الأوروبية إلى أن القواعد المعتدلة التي تحكم "ChatGPT"، يمكن التحايل عليها عبر ما يعرف بـ" الهندسة الفورية"، التي تقوم على تزويد الذكاء الاصطناعي بمدخلات دقيقة بغية الحصول على نتائج محددة.


تقول إن الاستخدام الإجرامي لهذه المنصة يشمل تسريع عملية البحث بالنسبة لـ"الجهات الخبيثة"، بدون أن يكون لدى هذه الجهات أي معرفة مسبقة بمناطق الجرائم المحتملة مثل اقتحام المنازل والإرهاب والجرائم الإلكترونية والاعتداء الجنسي على الأطفال.
أضافت أن المنصة يمكن أن تعطي خطوات محددة بناء على أسئلة سياقية، بما يسهّل على المجرمين فهم الجرائم وتنفيذ العديد منها بسرعة.


تشدد الوكالة على أن التصعيد الاحتيالي هو أحد تطبيقات المنصة الجديدة، علما بأنها قادرة على إنتاج نصوص جديدة أكثر احترافا من الأساليب السابقة في هذا المجال التي كانت تعرف بسرعة بسبب الأخطاء اللغوية فيها.