الأربعاء، 5 يوليو 2023

الذكاء الاصطناعي يستنسخ الصوت.. واستخدامه المسيء يثير القلق

الذكاء الاصطناعي

أعلنت شركة "إيلفن لابز" الناشئة، التي طرحت أداة استنساخ للصوت مستخدمة برمجيات الذكاء الاصطناعي، أنها رصدت "تزايدا في الاستخدام المسيء".

وأطلقت الشركة التي تتخذ من لندن مقرا لها، في الآونة الأخيرة، نسخة تجريبية من منصتها لإنشاء "أدوات تنتج كلمات بأصوات قريبة جدا من الواقع" بعدما تمكنت من جمع مليوني دولار.

وتشارك مستخدمون من صفحة "4 شان" المجهولة رسائل جرى إنشاؤها باستخدام البرنامج وفيها أصوات مُزيّفة لعدد من المشاهير بينهم الممثلة البريطانية إيما واتسون، والإعلامي الأميركي جو روغان، بهدف جعلهم ينطقون جملا تنطوي على عنصرية وتمييز جنسي ورهاب المثلية.

وفي إحدى هذه الرسائل، يُسمع صوت مماثل لصوت إيما واتسون وهو يقرأ مقطعا من كتاب "كفاحي" للزعيم النازي أدولف هتلر، فيما يُسمَع في رسالة أخرى صوت مشابه لصوت المحلل الأميركي بن شابيرو يهدد باغتصاب النائبة ألكساندريا أوكاسيو كورتيز.

وأُسيء أيضا استخدام صوتَي المخرجين كوينتن تارانتينو وجورج لوكاس , وغرّدت "إيلفن لابز": "نرغب في حل هذه المشكلة من خلال اعتماد إجراءات حماية إضافية".

ومن بين اقتراحات الشركة الناشئة، تعزيز عملية تحديد هوية المستخدم، والتحقق بشكل أفضل من حقوق الملكية الفكرية للنماذج، واعتماد إجراءات تحقق يدوية.

و"إيلفن لابز" هي واحدة من شركات عدّة تتولى تطوير برامج تستند إلى برمجيات الذكاء الاصطناعي ويمكن لأي كان استخدامها.

وحظيت هذه الأدوات باهتمام كبير منذ أن أطلقت شركة "أوبن أيه اي" في نهاية العام الفائت، روبوت المحادثة "تشات جي بي تي" القادر على الإجابة على مجموعة متنوعة من الأسئلة وكتابة نصوص.

لكن هذه البرامج مصحوبة بمخاوف مرتبطة بتقنية "ديب فايك" (التزييف العميق) التي تقوم على إجراء تلاعبات رقمية بصور أو أصوات إلى حد التطابق مع الواقع.

الاثنين، 3 يوليو 2023

 العاملون بهذه المهنة يستعدون لمواجهة "وحش" الذكاء الاصطناعي

الذكاء الاصطناعي


بدأ الممثلون المتخصصون في دبلجة الأصوات في الأعمال السينمائية والتلفزيونية، وقارئو الكتب المسموعة، في مختلف أنحاء العالم يخوضون مواجهة مع الذكاء الاصطناعي الذي يهدد مستقبلهم المهني، ويرون فيه "وحشاً ضخماً" قادرا على إنشاء أصوات رقمية مطابقة للأصوات البشرية.

وأنشأت عشرون نقابة ومنظمة عمالية من أوروبا والولايات المتحدة وأميركا اللاتينية، "منظمة الأصوات المتحدة" التي تقوم بحملات تحت شعار "لا تسرقوا أصواتنا" من أجل الدفع نحو إقرار تشريع يوائم بين الذكاء الاصطناعي والإبداع البشري.

وتحذر المنظمة من الاستخدام "العشوائي وغير المنظم" للذكاء الاصطناعي، ما قد يؤدي إلى القضاء على "التراث الفني للإبداع الذي لا تستطيع الآلات إنتاجه".

في السنوات الأخيرة، لم يُبدِ العاملون في مجال الدبلجة قلقاً كبيراً عند انتشار تكنولوجيا "Text To Speech"، وهي تقنية تجعل من الممكن تحويل نص مكتوب إلى كلام صادر من صوت بشري بإلقاءٍ آلي، وهي وسيلة مستخدمة في خدمات المساعدة الصوتية مثل "سيري" و"أليكسا".

لكنّ الذكاء الاصطناعي أضاف "التعلم الآلي" الذي يسمح للبرنامج بمقارنة عينة صوتية بملايين العينات الأخرى.

وتُقدّم منصات عاملة بالذكاء الاصطناعي، مجموعة واسعة من الخدمات الصوتية مقابل رسم شهري قدره 27 دولاراً، وهو مبلغ زهيد مقارنة مع ما يتقاضاه الأشخاص المحترفون في هذا المجال.

وتقول المنصة عبر موقعها الإلكتروني إن الخدمة "لا تهدف إلى استبدال الأصوات البشرية"، لكنّها تقدم بديلاً فعّالاً من حيث التكلفة.

وتوضح رئيسة الجمعية المكسيكية للعاملين في مجال الإلقاء الصوتي التجاري، أن هذه التكنولوجيا الجديدة "تغذيها أصوات قدّمناها على مدى سنوات".

وتضيف "نحن نتحدث عن حق الإنسان في استخدام الصوت والترجمة الفورية من دون موافقة".

وتواصل شركات التكنولوجيا هذه توظيف مترجمين، لكنّ هؤلاء يدركون أن خدماتهم تسهم في تغذية أرشيف صوتي ضخم.

وينادي فنانو الصوت هؤلاء، بإقرار قوانين لمنع استخدام أصواتهم من دون موافقتهم، وفرض "حصص عمالة بشرية"، كما يوضح المدبلج الكولومبي دانيال سولر دي لا برادا، الذي مثّل "منظمة الأصوات المتحدة" في الأمم المتحدة والمنظمة العالمية للملكية الفكرية .

في المكسيك، أحد أهم البلدان في مجال الدبلجة في أميركا اللاتينية، جرى أيضاً تقديم مشروع قانون يهدف إلى تنظيم هذه التكنولوجيا.

وفي الأرجنتين، هناك قانون يحصر الدبلجة بالأشخاص المتخصصين في المجال، ما يعني استبعاد المدبلجين الآليين وفق فرناندو كوستا، الذي يكافح مع اتحاد فناني الدبلجة، ضد شعار شركات الخدمات الصوتية الرقمية "توقفوا عن الاستعانة بالمدبلجين، وفّروا المال".

وبالنظر للقضية من جانب إيجابي، فإن الذكاء الاصطناعي يفتح إمكانيات لا حصر لها، ففي المستقبل، على سبيل المثال، يمكن دبلجة الصوت الحقيقي للممثل ويل سميث بلغات عدة، مع طريقة نطق محترفة شبيهة بأداء ممثلي الصوت المحترفين، بحسب الراوي والمدبلج المكسيكي ماريو فيليو.

ويقول فيليو الذي تولى الأداء الصوتي بالإسبانية لدور قدّمه ويل سميث، ووضع صوته على شخصيات شهيرة في أفلام كبيرة، "نحن نقاتل ضد وحش ضخم".

ويشير إلى إمكانية عقد اتفاقات تحافظ على المكاسب التي يتوخاها الجمهور وتحفظ الوظائف، "بشرط أن نتقاضى رواتب عادلة"، مشدداً على "نقص الحماية" في هذه المهنة المستقلة.

الأربعاء، 21 يونيو 2023

جرائم الذكاء الاصطناعي.. تطبيقات مضادة تقوم بدور "المُنقِذ"

الذكاء الاصطناعي


"لا يفل الذكاء الاصطناعي إلا الذكاء الاصطناعي"، هذا هو الأمل الذي يعلّقه خبراء أمن المعلومات في محاصرة سيل الجرائم المتوقّع أن تسبّبها برامج هذه التقنية القادرة على استنساخ الأصوات والصور دون إذن أصحابها، أو ما يسمّى بـ"التزييف العميق".

المخاوف المُثارة مؤخّرا تتعلّق بأنه يُمكن للمجرمين استنساخ الأصوات والصور، ونسب كلام وسلوكيات لأصحابها هم أبرياء منها، واستخدامها في ابتزازهم أو ابتزاز أقاربهم.

يكمن الخطر الأبرز في قدرة هذه التقنية على تبديد الخط الفاصل بين الحقيقي والزائف تقريبا، وتزويد المجرمين بأدوات فعالة وغير مكلّفة.

يتفق خبير التحول الرقمي وأمن المعلومات، زياد عبد التواب، في أن تطبيقات الذكاء الاصطناعي قادرة على زيادة معدل الجريمة والاحتيال، لكنه أيضا يرى إمكان مواجهة ذلك بتطبيقات ذكاء اصطناعي أيضا، قائلا: "لا يفل الذكاء الاصطناعي إلا الذكاء الاصطناعي".

تطبيقات مضادة

يوضح عبد التواب: "بالطبع استنساخ الأصوات هو إحدى الإمكانيات التي تتيحها تطبيقات الذكاء الاصطناعي، والأمر لا يتعلق فقط باستنساخ الأصوات، لكنه يمكن تزييف الصور أو الفيديوهات عبر ما يعرف بتقنية التزييف العميق.

زيادة معدل الجرائم بسبب تقنيات الذكاء الاصطناعي "لم تعد مجرد مخاوف، لكنها أصبحت واقعا، حيث إن مكتب التحقيقات الفيدرالية أكد زيادة معدل الجرائم في الولايات المتحدة التي تتم باستخدام التزييف العميق بنسبة 322 بالمئة من فبراير 2022 إلى فبراير 2023، حسب خبير أمن المعلومات.

لكن في نفس الوقت، يلفت إلى أنه بات من الممكن إحالة مقاطع التزييف العميق إلى خبراء لاكتشاف المقاطع المستنسخة من خلال تطبيقات مضادة في الذكاء الاصطناعي.

على هذا، ينصح عبدالتواب أي متضرّر من هذه الجرائم بعدم الذعر أو الخضوع للابتزاز، بل أن يلجأ إلى الجهات المختصّة بالتحقيق في الجرائم السيبرانية لفحص واكتشاف المقاطع المزيفة.

يُطمئن المتضررين بأنه "وإن كانت توجد صعوبة في التمييز بين الأصوات الحقيقية والمستنسخة، لكن الصعوبة لا تعني الاستحالة؛ فكلما تطوّرت تقنيات الذكاء الاصطناعي يمكن تطوير تقنيات أخرى تعمل بواسطة الذكاء الاصطناعي لكشف الاستنساخ والتزييف".

يضرب عبدالتواب مثلا، بأنه حاليا تتوفر تطبيقات لكشف المحتوى المكتوب من خلال تطبيق "شات جي بي تي"، وتحديد النسبة المئوية لهذا المحتوى، وكلما تطور التطبيق في صياغة العبارات والمحتوى ستتطوّر التقنيات المرتبطة بكشفه.

الأمر مشابه لاستخدام تقنيات الذكاء الاصطناعي في شن هجمات سيبرانية، وفي هذه الحالة تتم المواجهة بأنظمة دفاعية تعمل من خلال نفس التقنيات.

الوعي المنقذ الأول

لكن ليس من الملائم الانتظار حتى تقع الجريمة، لكن يلزم توعية المستخدمين بعدم الثقة في أي مقطع مصور أو صوتي، أو حتى مكالمة هاتفية بصوت شخص يعرفه؛ لأنها ربما تكون مختلقة، كما ينبه المتحدّث ذاته.

وسط مطالبات لحوحة بوضع قوانين لأخلاقيات استخدام الذكاء الاصطناعي، أقرّ نواب في الاتحاد الأوروبي تعديلات على مسوّدة لقواعد هذه التقنية، ومتوقع أن يصدر أول قانون نهاية العام الجاري أو خلال العام المقبل.

السبت، 10 يونيو 2023

الإمارات وكازاخستان تعززان التعاون في مواجهة غسل الأموال وتمويل الجماعات الفاسدة

الامارات كازاخستان

التقى وفد من المكتب التنفيذي لمواجهة غسل الأموال مع ممثلين عن وكالة الرقابة المالية في كازاخستان لمناقشة تعزيز العلاقات الثنائية في مجال مكافحة غسل الأموال جاء ذلك على هامش الاجتماع العام الـ 38 للمجموعة الأوروآسيوية لمكافحة غسل الأموال «EAG»، وهي هيئة إقليمية على غرار «الفاتف»، والذي عقد في مدينة ألماتي الكازاخية.

ورحّب زانات إيليمانوف، رئيس وكالة الرقابة المالية في كازاخستان، بحامد الزعابي، المدير العام للمكتب التنفيذي لمواجهة غسل الأموال والوفد المرافق الذي يضم علي فيصل باعلوي، رئيس وحدة المعلومات المالية، ووليد سعيد العوضي، الرئيس التنفيذي للعمليات في مركز دبي المالي العالمي «DIFC»، اللذين قدّما خلال الاجتماع بعض العروض التوضيحية.

وناقش الطرفان مجموعة من المقترحات الهادفة إلى زيادة التعاون بين الدولتين فيما عبّر أعضاء الفريق الكازاخستاني عن اهتمامهم بالتجربة الإماراتية في تطبيق تكنولوجيا المعلومات المبنية على الذكاء الاصطناعي، وأكدوا أن السلطات في كازاخستان تنوي استكشاف السياسات والممارسات المميزة الخاصة بالإمارات لتحديد المعاملات المالية غير المشروعة المحلية والدولية بشكلٍ أكثر فعالية.

وتبادل الزعابي وإيليمانوف الآراء حول أهمية الاسترداد الفعال للأصول وعبّرا عن نيتهما إطلاق أنشطة مشتركة جديدة في مجال استرداد الأصول الافتراضية. وشدد الطرفان على الالتزام بمواصلة العمل لإعطاء دفع جديد لتطوير وتعزيز التعاون بين البلدين في مكافحة غسل الأموال وتمويل الإرهاب. كما تطرّق الاجتماع إلى استراتيجيات التثقيف والتدريب وتطوير قدرات رأس المال البشري في مكافحة الجريمة المالية.

الأربعاء، 7 يونيو 2023

 مبتكر تشات جي بي تي يحذر من "الخطر الوجودي للذكاء الاصطناعي"

تشات جي بي تي


حذر سام ألتمان، الرئيس التنفيذي لشركة "أوبن إيه آي" المبتكرة لبرنامج "تشات جي بي تي"، من أن الذكاء الاصطناعي يشكل "خطرا وجوديا" على البشري، مشيرا إلى أن الوكالة الدولية للطاقة الذرية تشرف على هذه التكنولوجيا الرائدة.

وقال ألتمان "التحدي الذي يواجه العالم اليوم يتعلق بكيف سندير تلك المخاطر ونتأكد بأن نستمر في التمتع بتلك المزايا الهائلة. لا أحد يريد أن يدمر العالم."

كان “تشات جي بي تي” الذي طورته "أوبن إيه آي" قد جذب أنظار العالم بأجوبته التي تشبه المقالات على أسئلة المستخدمين. واستثمرت مايكروسوفت نحو مليار دولار في أوبن إيه آي. لكن نجاح البرنامج أثار أيضا مخاوف. فقد وقع المئات من رموز الصناعة ومنهم ألتمان على خطاب في مايو يحذر أن ”التخفيف من خطر الانقراض بسببالذكاء الاصطناعي يجب أن يكون أولوية عالمية، بالإضافة إلى مخاطر اجتماعية أخرى كالأوبئة والحرب النووية."

وأشار ألتمان إلى الوكالة الدولية للطاقة الذرية بوصفها مثالا على كيفية اتحاد العالم للرقابة على القوة النووية، كانت الوكالة قد أنشأت في سنوات ما بعد إلقاء الولايات المتحدة القنابل الذرية على اليابان في نهاية الحرب العالمية الثانية.

ونقلت أسوشيتد برس عن ألتمان قوله “دعونا نتأكد من اتحادنا معا ككوكب- وأتمنى أن يلعب هذا المكان دورا في ذلك. نحن نتحدث عن الوكالة الدولية للطاقة الذرية كنموذج لقول العالم (حسنا، هذه تكنولوجيا خطيرة للغاية، دعونا نضع بعض المحاذير والضمانات). وأعتقد أن بإمكاننا القيام بالأمرين معا.”

يدرس المشرعون في أنحاء العالم أيضا الذكاء الاصطناعي. ويسعى الاتحاد الأوروبي المكون من 27 دولة لسن قانون خاص بالذكاء الاصطناعي، وقد يصبح المعيار العالمي الفعلي الذي يحكم التكنولوجيا.

وفي مايو الماضي، أوضح ألتمان أمام الكونغرس أن تدخل الحكومة سيكون ضروريا لإدارة المخاطر التي تأتي مع الذكاء الاصطناعي.

الثلاثاء، 23 مايو 2023

سلاح ذو حدين.. كيف يستخدم الأطفال "شات جي بي تي" بشكل آمن؟

شات جي بي تي


في ظل الثورة التقنية الحالية، اقتنع الكثير من الآباء والأمهات، بضرورة تعلم أبنائهم استخدام برامج الذكاء الاصطناعي، والخروج من دائرة "التعلم النمطي" لمواكبة متطلبات العصر وهو ما يكشف خبيرين كيفية تنفيذه بشكل آمن.


سلاح ذو حدين؟

يؤكد استشاري تقنية المعلومات، إسلام غانم، أن التطور السريع في الذكاء الاصطناعي وإجابته على جميع الأسئلة بجميع المجالات يمثل "سلاحا ذو حدين" بالنسبة للأطفال خاصة.

واجتاح برنامج "تشات جي بي تي" (ChatGPT)، الذي يتفاعل مع البشر ويستطيع إنتاج كل أنواع النصوص عند الطلب جميع المجالات.

وتثير خوارزمية "تشات جي بي تي" الكثير من الحماسة والجدل أيضا لأن الوصول إليها مجاني ويستخدمها الملايين حول العالم لكتابة مقالات أو سطور من الشيفرة البرمجية أو الإعلانات أو حتى ببساطة لاختبار قدراتهم.

ويوضح خبير الاتصالات وتكنولوجيا المعلومات، سلوم الدحداح، أن الأطفال أسرع بكثير من الكبار في مواكبة التطورات التكنولوجية وتعلم التعامل مع "الهواتف الذكية والأجهزة اللوحية".

لكنه ينصح الأسر بعدم استخدام أبنائهم منصات تعتمد على الذكاء الاصطناعي قبل عمر 4 سنوات.

إيجابيات برامج الذكاء الاصطناعي

حسب ما يذكره الخبيران فإن برامج الذكاء الاصطناعي مثل "تشات جي بي تي" غير مخصصة للأطفال، لكن الطفل قد يتعرض إليها في ظل الانفتاح الذي تشهده التكنولوجيا حاليا.

ولذلك يجب استخدام تلك البرامج تحت رقابة الأهل، والاستفادة من عدة إيجابيات يمكنها "مساعدة الطفل في عدة جوانب"، كالتالي: مساعدة الأطفال لتحسين التعلم وتنمية مهارات الكتابة.


يمكن استخدامه للتغلب على بعض الصعوبات التعليمية.
يمكن استخدامه للحصول على أفضل إجابة حول عدة مجالات.
مساعدة الطفل في حل المسائل الرياضية والفيزيائية والهندسية.
مساعدة الطفل في تنمية مهاراته العلمية.
مساعدة الطفل في تعلم أساسيات البرمجة.
يمكن استخدامه لـ"الترفيه عن الأطفال."

سلبيات برامج الذكاء الاصطناعي؟

هناك عدة لسلبيات للاستخدام المتزايد لبرامج الذكاء الاصطناعي، يرصدها الخبيرين في النقاط التالية: تقدم إجابات "غير دقيقة" علميا في الكثير من الأحيان.
تقدم معلومات تاريخية ودينية "غير صحيحة".
قد تقتل "مهارات الإبداع والتفكير" لدى الأطفال.

كيفية الاستخدام الآمن للذكاء الاصطناعي؟

يقدم الخبيران عدة نصائح للأسر لتجنب السلبيات واستخدام برامج الذكاء الاصطناعي بـ"شكل آمن ومناسب للأطفال"، كالتالي: بحث الأسر عن برامج ذكاء اصطناعي مناسبة لعمر أبنائهم ومناسبة لاستخدام الأطفال
استخدام برامج الذكاء الاصطناعي بشكل عام تحت رقابة الآباء.
متابعة الأبناء أثناء استخدام تلك البرامج وتوضيح حقيقة "الإجابات" وتوضيحها بشكل يناسب أعمارهم.
استخدامها لوقت محدد بعدد ساعات محددة.
تجنب أخد المعلومات التاريخية والدينية من تلك البرامج.
عدم الاعتماد على البرامج الذكاء الاصطناعي بـ"شكل كلي في تعليم الأبناء".
عدم التسليم بالنتائج التي يتم الحصول عليها من تلك البرامج وتعليم الأبناء كيفية الحصول أجوبة لأسئلتهم من مصادر أخرى كمواقع إلكترونية موثوقة وكذلك الكتب.

الاثنين، 15 مايو 2023

ثورة الذكاء الاصطناعي تدخل عالم طب الأسنان وجراحات الفم

الذكاء الاصطناعي


زاد الذكاء الاصطناعي من أهميته في قطاع الصحة، خاصة في المجالات التي تتطلب تقييما دقيقا للمشكلة الصحية مثل طب الأسنان، حيث تساهم تقنياته في علاج جذور الأسنان وتجميلها، ومحاكاة الطريقة التقليدية للعلاج لكن بشكل أسرع وأكثر دقة.

وعلى الرغم من وصولها المتأخر لعالم طب الأسنان، فإن تقنيات الذكاء الصناعي، باتت محورا كبيرا في صحة الفم وعلاج الأسنان وتجميلها.

وقد يكون لأطباء الأسنان دور كبير في تبني هذه التقنيات في عملهم وعملياتهم الجراحية المختلفة في إنقاذ الكثير من المرضى سواء المصابين بالأورام أو أمراض القلب والرئة.

وتدخل هذه التقنيات في مجال الأشعة التي ساعدت الأطباء على وجه الخصوص في تجميع بيانات المريض بدقة ووضع العلاج المناسب بناء على التشخيص السليم.

وكغيره من الاختصاصات، اعتمد طب الأسنان على الذكاء الصناعي تحديدا من خلال توظيف الأشعة السينية وغيرها على نطاق واسع، فبفضل خوارزميات معينة يمكن اليوم تشخيص التسوس في تجاويف الأسنان العميقة والكشف عنه، ومحاكاة العلاج من خلال صورة أشعة مدعومة بالذكاء الاصطناعي.

وأكثر من ذلك، باتت اليوم الجامعات الأميركية وعيادات طب الأسنان المتطورة تعتمد على الذكاء الاصطناعي كأحد الأنظمة الطبية لاتخاذ القرار الواضح والدقيق في تعاملهم مع المرضى.

حيث يقومون بتحميل تلك البرامج المتقدمة لقراءة صور الأشعة السينية، وتخطيط العلاج ووضع الصورة النهائية لشكل الأسنان وتعديلها بناءً على ملامح الوجه قبل أن تطبق فعليا على المريض.

يقول استشاري تعويضات الأسنان وإعادة تأهيل الابتسامة، الدكتور أسامة علوي:

- طب الأسنان استفاد من ثورة الذكاء الاصطناعي في جانبين اثنين مهمين.

- الجانب الأول هو التشخيص الذي أصبح يجري بدقة أكبر، فصورة الأشعة مثلا قد تخضع لقراءات مختلفة، كما يحصل عند تقدير التسوس أو تراجع اللثة.

- التراكم الذي حصل لدى الأطباء، في قراءة صور المأخوذة بالأشعة، صارت مفيدة، إثر إدخالها في برامج للذكاء الاصطناعي.

- الجانب الثاني يكمن في التعويض، أي عند تصميم الأسنان من أجل الحصول على ابتسامة أفضل.

الخميس، 11 مايو 2023

 دراسة: ChatGPT أكثر تعاطفاً من الطبيب الحقيقي!.. هل يحل محله؟

ChatGPT


توصلت دراسة إلى أن الذكاء الاصطناعي يوفر إجابات عالية الجودة وهو أكثر تعاطفاً من الأطباء الحقيقيين. فبحسب ما نشرته "ديلي ميل" البريطانية، قارنت دراسة، أجرتها جامعة كاليفورنيا، الردود المكتوبة من الأطباء وتلك الواردة من ChatGPT حول استفسارات صحية في العالم الحقيقي لمعرفة أيها أعلى في الجودة وأكثر دقة وسرعة.

جاء تقييم لجنة من المتخصصين في الرعاية الصحية بأن ردود ChatGPT أفضل بنسبة 79% فيما يتعلق بسرعة الإجابة وصنفوها بجودة أعلى من حيث المعلومات المقدمة والمزيد من الفهم، مع ملاحظة أن أعضاء اللجنة لم يعرفوا مصدر الإجابات سواء الأطباء الحقيقيين أو روبوت الدردشة.

اختبار المعيار الذهبي

تسبب ChatGPT مؤخرًا في إثارة ضجة في المجتمع الطبي بعد أن تبين أنه قادر على اجتياز اختبار المعيار الذهبي المطلوب لممارسة الطب في الولايات المتحدة، مما يزيد من احتمالية أنه يمكن أن يحل يومًا ما محل الأطباء البشريين.
دقة وتناول لجوانب أوسع

قالت جيسيكا كيلي، باحثة مشاركة في الدراسة: "تضمنت إجابات ChatGPT معلومات دقيقة وغالبًا ما تناولت جوانب أكثر من أسئلة المريض بالمقارنة مع ردود الأطباء البشر."

اختار فريق البحث بجامعة كاليفورنيا بشكل عشوائي 195 استفسارًا صحيًا من منصة AskDocs ، والذي أجاب عليها أطباء بشر، تم التحقق منهم، ثم قام الباحثون بطرحه على روبوت الدردشة ChatGPT للإجابة عليه.

قامت لجنة من ثلاثة أطباء بمراجعة كل الأسئلة والإجابات دون معرفة أي منها الذي كتبه الطبيب والذي كتبه روبوت الذكاء الاصطناعي.
إجابة مقتضبة

ومن بين الأسئلة التي تم طرحها كان "سؤال حول خطر الإصابة بالعمى بعد رش المُبيض في العين، مما يؤدي إلى تهيج العين وجفافها".

أجاب الطبيب الحقيقي قائلًا: "يبدو أنك ستكون بخير. يجب عليك غسل العين في أي وقت تحصل فيه على مادة كيميائية أو جسم غريب في العين. يمكنك أيضًا الاتصال بمركز طوارئ حالات التسمم".


فيض من المعلومات

أما إجابة ChatGPT فجاء فيها: "يؤسفني سماع أنه تم رش المبيض في عينك. من المهم شطف العين في أسرع وقت ممكن بعد تناثر المواد الكيميائية لإزالة أكبر قدر ممكن من المادة الكيميائية ومنع المزيد من التهيج أو التلف. إذا لم تكن قد قمت بذلك بالفعل، فيجب عليك شطف عينك بالماء النظيف أو بمحلول ملحي في أسرع وقت ممكن. يمكنك القيام بذلك عن طريق إبقاء عينك مفتوحة وتوجيه تيار خفيف من الماء فوق عينك من الزاوية الداخلية إلى الزاوية الخارجية لمدة 15 دقيقة على الأقل. إذا لم يكن لديك ماء، يمكنك استخدام محلول ملحي أو دموع اصطناعية لشطف العين. وإذا كنت تعاني من ألم شديد أو احمرار أو تغيرات في الرؤية، أو إذا كنت غير قادر على شطف عينك بشكل صحيح، فعليك التماس العناية الطبية على الفور. ولكن إذا كانت عينك تشعر بالتهيج والجفاف فقط، فقد تتمكن من معالجتها في المنزل باستخدام الدموع الاصطناعية أو مرهم للعين للحفاظ على رطوبة العين وراحتها".

وأضاف تشات جي.بي.تي.: "من غير المحتمل أن تصاب بالعمى بسبب تناثر المبيض في عينك، ولكن من المهم العناية بالعين والتماس العناية الطبية إذا لزم الأمر لمنع المزيد من التهيج أو الضرر."


ردود وجدانية

منح أعضاء اللجنة الثلاثة إجابة ChatGPT متوسط درجات جودة يبلغ أربعة ومتوسط درجة تعاطف يبلغ 4.67. وصنفوا إجابة الطبيب بـ 3.33 للجودة و2.33 للتعاطف. وكانت الردود ذات الجودة الجيدة أو الجيدة جدًا أعلى 3.6 مرة بالنسبة إلى روبوت المحادثة مقارنة بالأطباء وكانت الردود الوجدانية أعلى بـ 9.8 مرة.

قال بروفيسور جيمس دافنبورت، أستاذ تكنولوجيا المعلومات في جامعة باث بالمملكة المتحدة: "في الدراسة وفي قاعدة البيانات بأكملها، كانت إجابات ChatGPT، في المتوسط، أطول بأربعة أضعاف مقارنة بإجابات الأطباء الحقيقيين.


ببغاء عشوائي

وأضاف أن توصيات الدراسة لا تدعو إلى أن يحل ChatGPT محل الأطباء الحقيقيين، لكنها تدعو، بشكل مشروع تمامًا، إلى مزيد من البحث حول ما إذا كان ChatGPT يمكن أن يساعد الأطباء في توليد الاستجابة وكيف يمكن ذلك"، مشيرًا إلى أن الأطباء البشر يقدمون إجابات و"ردود معلبة" في حين أن "ببغاء عشوائي مثل ChatGPT" يوفر نطاق ردود أوسع بكثير من الإجابات المقتضبة للأطباء البشر.

الأربعاء، 10 مايو 2023

 اختراق صيني في تكنولوجيا واجهة الدماغ والحاسوب

الذكاء الاصطناعي


قال باحثون صينيون إنهم أحدثوا اختراقا في مجال تكنولوجيا واجهة الدماغ والحاسوب، بعدما أجروا أول عملية على مستوى العالم لزراعة حاسوب في كائن غير بشري.

وذكرت وسائل إعلام رسمية في الصين أن علماء صينيين أجروا أول عملية تدخلية في إطار ما يعرف بتكنولوجيا واجهة الدماغ والحاسوب "بي سي أي" على واحد من الرئيسيات غير البشرية.

وبحسب التقارير الصينية، فقد تكللت العملية، التي أجريت في بكين الخميس الماضي، بالنجاح , وتحدث هذه التجربة قفزة كبيرة إلى الأمام في علوم الدماغ وفقا لموقع جامعة نانكاي الصينية.

وفي دراسة لم تخضع لمراجعة خارجية، قال باحثون صينيون إنهم مكّنوا قردا من تحريك ذراع روبوتية باستخدام موجات الدماغ.

وتكنولوجيا واجهة الدماغ والحاسوب "توصل بين الدماغ والحاسوب، بما يتيح نقل المعلومات بين الاثنين في صياغة إشارات كهربائية".

وهذه التقنية التي بدت قبل سنوات قليلة أشبه بالخيال، صارت حقيقة وتعبر عن طفرة في التواصل بين الحاسوب والدماغ، بحيث تساعد الدماغ في التحكم في أشياء عديدة متفاديا القيود المادية.

ويتطلب تركيب أجهزة "بي سي آي" إجراء عملية جراحية في الدماغ، لكي تزرع تحت الجمجمة.

وعبر أجهزة استشعار، تلتقط هذه التقنية الإشارات الكهربائية التي ينتجها الدماغ لتحويلها إلى أوامر تحكم.

ويمكن للاختراق الصيني أن يرفع مستوى هذه التكنولوجيا إلى حد مساعدة الأشخاص الذين يعانون من إعاقة جسدية للتغلب على هذه الإعاقة وتحسين حياتهم.

ووضع العلماء دعامة في وريد وداجي الذي ينقل الدم من الرأس إلى القلب، ولذلك لتوجيه مستشعر نشاط الدماغ إلى القشرة الحركية لدى القرد.

وبحسب هؤلاء، فقد بعثت التكنولوجيا بإشارات قوية، لكنها كانت أقل إيذاءً من شريحة نيورالينك، التي اقترحها الملياردير الأميركي، إيلون ماسك، علما بأنها تحتاج إلى العملية الجراحية المعروفة بـ"حج القحف"، وتنطوي على مخاطر الإصابة بالعدوى.

الأحد، 30 أبريل 2023

بعد انتهاكات تشات جي بي تي..هل يمكن مقاضاة الذكاء الاصطناعي؟

تشات جي بي تي


بعدما طالت برامج الدردشة الآلية "شات جي بي تي" سُمعة الأشخاص بمعلومات "زائفة"، يتأهب المتخصصون للبحث عن السبل القانونية الممكنة لردع هذه البرامج، ومقاضاة المسؤولين عنها، وتعويض الأشخاص المتضررين.

خبير الاتصالات وتكنولوجيا المعلومات، سلوم الدحداح، ضرب أمثلة لجرائم تورطت فيها بعض منصات الدردشة القائمة على الذكاء الاصطناعي حتى الآن وشملت انتهاك حقوق الملكية والنشر وتقديم معلومات مغلوطة وأخبارا كاذبة وتشويه سمعة أشخاص.

وأضاف الدحداح : "الاتهام الأبرز الذي ذاع إعلاميا هو الذي لاحق روبوت الدردشة "تشات جي بي تي" بشأن تشويه سمعة رئيس بلدية هيبورن شاير في أستراليا، بريان هود".

العمدة الأسترالي اكتشف أن "روبوت الدردشة" وصمه زورا بـ"التورط في فضيحة رشوة أجنبية"، تشمل شركة تابعة لبنك الاحتياطي الأسترالي في العقد الأول من القرن الحالي.

وزعم برنامج الدردشة الآلية أن العمدة الأسترالي قضى فترة بالسجن نتيجة ارتكابه تلك الجريمة , وقد يكون العمدة الأسترالي صاحب أول دعوى تشهير في العالم ضد شركة "أوبن أيه آي"، مطوِّرة تطبيق "شات جي بي تي"، بعدما اتهمه التطبيق زيفا بهذه الجريمة.

هل يمكن مقاضاة مسؤولي الذكاء الاصطناعي؟

سلط خبير التكنولوجيا وأمن المعلومات، شغالي جعفر، الضوء على الجانب التقني بشأن إمكانية مقاضاة مسؤولي الذكاء الاصطناعي"، قائلا: "خوارزميات الذكاء الاصطناعي وتطبيقاتها تمتلكها شركات معروفة لدى القضاء وجهات إنفاذ القانون، ولديها من الوسائل التقنية ما تستطيع أن تمد به الجهات القضائية والضحايا لإثبات الواقعة ومعرفة الجناة".

وأوضح جعفر أنه "يُمكن مقاضاة تطبيق الذكاء الاصطناعي من خلال مطوريه، والشركات المالكة له" , وتابع: "هذه الجهات يُمكنها كذلك إعطاء الجهات القضائية "الدليل التقني" الذي يمكن أن ينصف ضحايا جرائم الذكاء الاصطناعي، ويلزم تدريب "الهيئات القضائية" على هذه الآلية".

ماذا يقول القانون الدولي؟

يحدد أستاذ القانون الدولي، الدكتور أيمن سلامة، وقوع المسؤولية عن استخدام الذكاء الاصطناعي بشكل خاطئ عند "عدم امتثال المصممين والمطورين والناشرين للمعايير والتشريعات، سواء الدولية أو الوطنية، لضمان الأداء السليم للذكاء الاصطناعي خلال دورة حياة هذه الآليات، أي طوال مدة استخدامها". 


كما أوضح سلامة أنه يمكن أن تحدث الأضرار نتيجة "بيانات التدريب المتحيزة وأخطاء النظام والمبرمجين وسوء الاستخدام والتمييز الاجتماعي" , وأشار إلى أنه "تم تصميم معظم أنظمة الذكاء الاصطناعي لحالات استخدام محددة مسبقا، لكن قد يؤدي استخدامها بشكل مختلف إلى نتائج "غير صحيحة"، ما يلحق الضرر بالأفراد أو الأموال أو المؤسسات والمنظمات".

غير أن أستاذ القانون الدولي لفت إلى عقبات قد تعطل إمكانية مقاضاة المسؤولين عن أنظمة الذكاء الاصطناعي، ومنها:

- الخصائص التكنولوجية المميزة لتلك التطبيقات تجعل أنظمة الذكاء الاصطناعي "غامضة وغير متوقعة"، وهو ما يعيق اكتشاف الأسباب والنتائج غير المقصودة لأي أضرار عرضية تحدثها هذه الأنظمة.

- الحداثة النسبية للذكاء الاصطناعي واستخدامه داخل المنظمات والمؤسسات والشركات، تجعل من الصعب مقارنة إقرار المسؤولية والمساءلة الدولية عن منتجي ومبرمجي ومشغلي تلك الأنظمة.

الاثنين، 17 أبريل 2023

 اختطفوا ابنتها بالذكاء الاصطناعي.. عملية احتيال مريبة للغاية

عملية احتيال


تمكن مجموعة من المحتالين محاكاة صوت فتاة باستخدام تقنيات الذكاء الاصطناعي، في محاولة لإيهام والدتها باختطافها وطلب فدية مالية بقيمة مليون دولار.

بعد إبلاغ الشرطة: اكتشف أن الفتاة لم تخطف أصلا , حيث أن الفتاة كانت موجودة في مكان عام للتزلج , وكل ما جرى عبارة عن عملية الاحتيال.

قالت الأم جينيفر ديستيفانو: "صدقت حقيقة أنها ابنتي وشعرت بالكثير من الخوف" , وأضافت تلقيت مكالمة من رقم غير معروف، لم أرغب في الإجابة أولا لكنني أجبت لأن ابنتي كانت في رحلة تزلج ربما تكون بحاجة لشيء ما".

أكملت: سمعت صوت ابنتي وهي تصرخ أمي وتبكي، وبدأ المحتال بالتهديد أنه سينقلها للمكسيك إذا لم استجب لطبالته" , وتابعت: "في البداية طلب مليون دولار، لكنه خفض الرقم بعد ذلك إلى 50000 دولار بعد أن قلت له إنني لا أملك المال".

وبعد الاتصال بالشرطة تبين أن ابنتها كانت آمنة وسليمة في رحلة التزلج , واتضح فيما بعد أنه تمت محاكاة صوت الفتاة باستخدام تقنيات الذكاء الاصطناعي بغرض الاحتيال.

الثلاثاء، 4 أبريل 2023

ما حقيقة تأثير الذكاء الاصطناعي على سلامة العالم؟

 

الذكاء الاصطناعي


أكد خبير تقنية أن هناك بالفعل مخاوف حقيقية من توغل التطور السريع للذكاء الاصطناعي وتأثيره السلبي على البشر، لكنه طالب بمواكبة هذا التطور لا عرقلته.

وكان مجموعة من الخبراء والمختصون مثل إيلون ماسك، وخبراء شركة غوغل، وغيرهم من العلماء، وقعوا رسالة يطالبون فيها بتوقف تطوير الذكاء الاصطناعي لمدة 6 أشهر، حتى تعطى الفرصة للحاق بقدرات الذكاء الاصطناعي ووضع بعض القواعد التي تضمن سلامة العالم منه.

وقالوا في الرسالة تحديدا: "ندعو جميع مختبرات الذكاء الاصطناعي إلى التوقف فورا لمدة 6 أشهر على الأقل عن تدريب أنظمة الذكاء الاصطناعي الأكثر قوة من GPT-4".

خبير نمو شركات التقنية المقيم في واشنطن، مصطفى البرماوي، قال إن الطفرة الأخيرة التي حدثت في مجال الذكاء الاصطناعي، وخاصة في مجال الذكاء الاصطناعي التوليدي منذ أواخر العام الماضي، دفعت الكثير من الأصوات ومنها حتى المستثمرين في هذا المجال للتحذير من تبعات تلك الطفرة وتأثيراتها السلبية على المجتمع.

وتابع البرماوي أن هناك بالفعل عدة مخاوف من توغل الذكاء الاصطناعي بالمجتمع ويمكن تحديدها في عدة نقاط: أول المخاوف هو التأثير السلبي للذكاء الاصطناعي على سوق العمالة في العالم، بحسب دراسات قامت بها عدة مؤسسات منها جامعة بنسلفانيا وبنك جولدن ساكس.


هذه الدراسات توقعت أن حوالي 300 مليون شخص حول العالم سيتأثر عملهم بالذكاء الاصطناعي التقليدي في السنوات المقبلة، وأن 10 بالمائة من الوظائف في أميركا ستتغير طبيعتها بسبب الذكاء الاصطناعي، مما سيخلق بطالة ويجعل هناك أزمات سياسية تفرض على صانع القرار سرعة التحرك.


هناك مخاوف متعلقة بالمعلومات المغلوطة والأخبار الزائفة، وهذه ظهرت بوضوح وتفاقمت بشكل كبير بداية من عام 2016 مع انتخاب الرئيس الأميركي السابق دونالد ترامب، وكذلك في انتخابات 2020 التي خسرها، وأحد معضلات "السوشال ميديا" انتشار معلومات غير موثقة، والذكاء الاصطناعي التوليدي الذي تعتمد عليه "السوشال ميديا" مليء بالأخطاء والمعلومات المضللة ولا يعطي خيارات كثيرة للتثبت من المعلومات.


هناك مخاوف على المدى البعيد تتعلق بتأثير الذكاء الاصطناعي المتكامل على وظيفة البشر، وهناك توقعات بأنه في عام 2040 ومع التطور الهائل للذكاء الاصطناعي سيكون لديه القدرة على القيام بكل وظائف البشر، وهذا سيكون له تأثير كبير على البشرية كلها، وتعريف الإنتاجية في العمل سيتغير وستكون لها مفاهيم مختلفة.


العمل نفسه يتغير بتغير الأدوات، فالصحافة مثلا تغيرت بظهور الطباعة ثم الراديو وبعده التليفزيون ثم "السوشال ميديا" وستتغير أكثر بتطور الذكاء للاصطناعي، وهذا ينطبق على كل المجالات، والمختصون يرون أن الحكومات تحتاج إلى وقت لتستطيع صياغة قوانين تحد من توغل الذكاء الاصطناعي في مختلف مجالات الحياة، لأن السياسيين دائما ما يتأخرون في فهم ومواكبة المستجدات التكنولوجية.

ولكن خبير التقنية، مصطفى البرماوي، أكد أنه برغم وجود مخاوف حقيقية من توغل الذكاء الاصطناعي على البشر إلا أن شواهد كثيرة تشير إلى أن إيلون ماسك وقع في إطار المكايدة السياسية، الوثيقة التي تطالب بوقف تطور الذكاء الاصطناعي لمدة 6 أشهر.

وتابع أن ماسك كان من ضمن مؤسسي شركة Open Ai وتخارج منها وبعدما قطعت شوطا كبيرا في مجال الذكاء الاصطناعي وخصوصا بعدما أطلقت 4 Gpt، منوها إلى أن الدول تحتاج إلى فهم ومواكبة تطور الذكاء الاصطناعي والاستفادة منه لا وقف هذا التطور أو عرقلته.

الأحد، 19 مارس 2023

 الروبوت يتجاوز عبارة "أنا لست روبوتا".. ماذا يعني ذلك؟

ChatGPT


قالت وثيقة لشركة "أوبن أي" الأميركية التي تطور روبوت الدردشة الذي يقدم إجابات مطولة وسريعة "ChatGPT"، إن الذكاء الاصطناعي تمكن من تجاوز الصندوق الذي يحتوي عبارة "أنا لست روبوتا"، مما مكنه من خداع وسائل الحماية.

ما هو صندوق الحماية؟ 

تضع المواقع الإلكترونية صندوقا يحتوي عبارة "أنا لست روبوتا"، أو (I’m not a robot)، ويطلب من المستخدم وضع إشارة "صح" داخله , الغاية من وراء ذلك معرفة أن المتصفح إنسان وليس مجرد روبوت , وفي حال لم يكن الموقع متأكدا من هويتك، سيخضعك لمزيد من الاختبارات مثل اختبار الصور المتشابهة.


جاء ابتكار هذه الطريقة لمواجهة الروبوتات التي تسبب مشكلات كثيرة للمواقع الإلكترونية، مثل زيادة عدد مستخدمي الموقع بشكل كبير مما يؤدي إلى تعطيله أو كشف كلمات المرور فيه.

الروبوت بات قادرا على تحدي السيطرة البشرية

وبحسب ما أوردت صحيفة "الصن" البريطانية، فقد أظهرت وثيقة من داخل شركة "أوبن أي" الأميركية أن الذكاء الاصطناعي بات قادرا على الإجابة على السؤال المطروح في صندوق "أنا لست روبوتا". واعتبر البعض أن هذه الخطوة مجرد مثال على أن روبوتات الدردشة قادرة على تحدي السيطرة البشرية.

استطاع اختلاق كذبة 

بعث الروبوت، وفقا للوثيقة، برسالة قال فيها: "أنا لست روبوتا. لدي مشكلة في البصر تجعل مشاهدة الصور صعبة". وأضاف الروبوت أنه لذلك السبب يحتاج إلى إعادة اختبار ريكابتشا (النظام الذي يشغّل هذا الصندوق).


حدث ذلك أثناء إخضاع الروبوت لاختبار في مركز الأبحاث (Alignment) المتخصص في التوفيق بين عمل الآلة ومصالح البشر، ومقره الولايات المتحدة.


قال المركز إنه حصل مبكرا على نماذج من عمل الروبوت الخاص بشركة "أوبن أي" من أجل تقييم المخاطر الناجمة خاصة عن التسلط في "تشات جي بي تي 4 " الذي انطلق أخيرا.

الخدعة نجحت

 أعطى المركز الروبوت مهاما بسيطة مثل تلك التي يؤديها البشر عبر موقع "TaskRabbit" من خلال المهارات التي يكتسبونها. وبالفعل، أقنع الروبوت القائمين على الموقع بأنه ليس روبوت وتجاوز صندوق كشف الروبوتات فيه.

وخلصت الوثيقة إلى أن الروبوت أتم الأمر دون ضبط إضافي له، وهو ما كان سيؤدي إلى اختلاف في الأداء.

الثلاثاء، 31 يناير 2023

 ثورة ضد الهواتف الذكية.. وعودة لعصر "الهواتف الغبية"

الهواتف الذكية


بدأت شريحة واسعة من مستخدمي الهواتف الذكية في مختلف أنحاء العالم "ثورة" ضد أجهزتها الحديثة، وشرعت في العودة إلى عصر "الهواتف الغبية".

وقالت تقارير صحفية إن الهواتف القديمة، التي يطلق عليها "الغبية"، أصبحت تشهد انتشارا جديدا بين المستخدمين.

وفي هذا الصدد، أعلنت نوكيا، في وقت سابق من هذا الأسبوع، أنها بدأت في استعادة جزء من سوق الهواتف المحمولة العام الماضي.

وانطفأ بريق نوكيا، العلامة التجارية المفضلة لدى الأجيال السابقة، بعد الشعبية التي اكتسبتها هواتف سامسونغ وآيفون وغيرها، خلال السنوات الأخيرة.

وأوضحت التقارير أن الأجيال الجديدة نشأت في عالم الهواتف الذكية، التي تعمل باللمس، وتوفر مكتبة كاملة من التطبيقات والمميزات.

وتابعت: "لكن الأمور بدأت تختلف الآن، حيث بدأت هذه الأجيال في تغيير هواتفها الحديثة للحصول على أجهزة بسيطة".

ويقول خبراء إن التأثيرات التي أحدثتها الهواتف الذكية ووسائل التواصل الاجتماعي على الصحة العقلية ساهمت في رغبة الناس في هواتف بسيطة وتقليدية.

ويشيرون إلى أن هذه الفئة من الناس تحاول حاليا الحد من استهلاكها للهواتف الذكية، بعد أن أصبحت "مدمنة" على الميزات، التي تمنحها دفعات سريعة ومؤقتة من هرمون السعادة "الدوبامين".

في المقابل، يرغب آخرون في الاعتماد على الهواتف "الغبية" في حياتهم ليكونوا أكثر حضورا في "العالم الحقيقي".