أثارت قدرة تقنيات الذكاء الاصطناعي المستخدمة في معالجة اللغات الطبيعية قلق الباحثين من استخدامها في صياغة محتوى رسائل البريد الإلكتروني الاحتيالية بجودة مرتفعة. وأثار ذلك القلق من اعتماد المحتالين مستقبلاً على تقنيات الذكاء الاصطناعي، إلى جانب الخدمات المتاحة بأسعار منخفضة والتي قد تساعدهم على صياغة الرسائل الاحتيالية. وتحديداً رسائل التصيّد"Publishihng".

وفي أحدث تقرير له قال مكتب أمن المعلومات الاتحادي الألماني إن التكنولوجيا الجديدة "تنطوي على مخاطر جديدة لأمن المعلومات وتزيد المخاطر المحتملة لبعض التهديدات المعروفة لأمن تكنولوجيا المعلومات". يذكر أنه وراء كل تطبيق محادثة ذكاء اصطناعي نموذج لغة يمكنه معالجة اللغة الطبيعية المكتوبة باستخدام نمط آلي محدد. ومن أشهر نماذج اللغة نموذج جي.بي.تي الذي طورته شركة أوبن أيه.آي الأمريكية ونموذج بالم من شركة غوغل والمستخدم في منصة المحادثة بارد، في حين يستخدم نموذج جي.بي.تي في منصتي المحادثة شات جي.بي.تي الشهيرة وبنج التابعة لإمبراطورية البرمجيات الأمريكية مايكروسوفت.


وخلال فعاليات مؤتمر Black Hat and Defcon في مدينة لاس فيغاس. عرض فريق تابع إلى الوكالة الحكومية للتكنولوجيا في سنغافورة نتائج تجربة قد تم تنفيذها.
وقد اعتمدت التجربة على إرسال رسائل تصيّد عبر البريد الإلكتروني. وهو نوع من أشهر أنواع هجمات الاختراق. كما أن الهدف الرئيسي من هذه الرسائل هو دفع المستلم للضغط على الرابط الضار الموجود فيها، وفق ما نقل موقع "البوابة العربية للأخبار التقنية".
وتم إرسال تلك الرسائل إلى 200 شخص لا يعلمون بالتجربة. وجزء من هذه الرسائل كانت مكتوبة بشكل بشري، أي من خلال أعضاء الفريق. والجزء الآخر كان مكتوب من طرف الذكاء الاصطناعي.
في المقابل، الروابط الموجودة في هذه الرسائل ليست بروابط ضارة بالطبع، إلا أنها كانت تبلغ الفريق بعدد مرات الضغط عليها.
كما يمكنك أن تتوقع، نجحت الرسائل المكتوبة من طرف تقنيات الذكاء الاصطناعي في تحقيق عدد أكبر من مرات الضغط على الرابط المخادع مقارنةً بالرسائل التي كتبها البشر، أكبر بنسبة كبيرة.
من جانبه، صرّح الفريق بأن تطوير نموذج ذكاء اصطناعي قادر على تقديم مستوى مرتفع هو أمر يكلف ملايين الدولارات، وهو أمر يناسب الشركات الضخمة أو الحكومات، وليس الأفراد.

من ناحية أخرى، قد لا يحتاج المخادعين لتطوير أنظمة كاملة. وبدلًا من ذلك، يمكنهم استخدام خدمات الذكاء الاصطناعي المعدة مسبقًا، والتي يمكن التعامل معها بسهولة وبدون الحاجة لمعرفة برمجية.
كما يمكن استخدام نماذج الذكاء الاصطناعي مفتوحة المصدر مثل OpenAI وغيرها.
وخلال التجربة استخدم الفريق نموذج OpenAI GPT-3 إلى جانب الاعتماد على خدمات AI أخرى متاحة، وكانت هذه الخدمات تساعد على فهم وتحليل الشخصية المستهدفة، وذلك ليسهل خداعها.
ورغم النتائج والأرقام الممتازة التي تم تحقيقها ضمن هذه التجربة. إلا أن الفريق المسؤول قد أوضح أن حجم العينة المستهدفة والذي كان 200 شخص فقط لا يكشف عن نتائج نهائية، وفي حالة تكرار نفس التجربة على عينة أكبر فقد تختلف النتائج.
كما أن الرسائل التي تمت كتابتها من طرف أشخاص حقيقيون ضمن التجربة قد لا تكون بنفس مستوى الرسائل المكتوبة من طرف مخادعين محترفين. إلا أن الباحثين قد أشادوا بمستوى احترافية الرسائل التي كتبها الـAI.



لكن ألتمان شدّد على أن الذكاء الاصطناعي الذي تطوّره “أوبن إيه آي” سيكون قادرا على معالجة “بعض من أكبر التحديات التي تواجه البشرية على غرار التغيّر المناخي وشفاء (مرضى) السرطان”.
التلاعب في الانتخابات وحذّر ألتمان من استخدام الذكاء الاصطناعي للتدخل في نزاهة الانتخابات، قائلا إنه “مبعث قلق كبير”، مضيفا أن الأمر يحتاج إلى تنظيم.
وفي حديثه أمام الكونغرس، قال ألتمان إنه ينبغي للولايات المتحدة النظر بشكل عام في متطلبات الترخيص والاختبار لتطوير نماذج الذكاء الاصطناعي.
وسُئل ألتمان عن رأيه في نوع الذكاء الاصطناعي الذي يجب أن يخضع للترخيص، فقال إنه النموذج الذي بوسعه التوجيه إلى قناعة محددة أو التلاعب بمعتقدات الأفراد.
وأضاف أنه يجب أيضا أن يكون للشركات الحق في قول إنها لا تريد استخدام بياناتها في التدريب على الذكاء الاصطناعي، وهي إحدى الأفكار التي تجري مناقشتها حاليا في الكونغرس.

الصحة العالمية تحذر ودعت منظمة الصحة العالمية، الثلاثاء، إلى توخي الحذر عند استخدام تطبيقات الذكاء الاصطناعي في استشارات الرعاية الصحية العامة، قائلة إن البيانات التي يستخدمها الذكاء الاصطناعي للتوصل إلى قرارات قد تتسم بالتحيز أو يساء استخدامها.
وذكرت المنظمة أنها متحمسة لإمكانيات الذكاء الاصطناعي، ولكن لديها مخاوف بشأن كيفية استخدامه لتحسين الوصول إلى المعلومات الصحية بصفته أداة لدعم اتخاذ القرار ولتحسين الرعاية التشخيصية.
وقالت المنظمة في بيان إن البيانات المستخدَمة في تدريب الذكاء الاصطناعي قد تكون متحيزة وتعطي معلومات مضللة أو غير دقيقة، ويمكن إساءة استخدام النماذج لتوليد معلومات مغلوطة.
ويأتي تحذير المنظمة في وقت يزيد فيه الإقبال على تطبيقات الذكاء الاصطناعي، مما يسلط الضوء على تقنية قد تغيّر طريقة عمل الشركات والمجتمع.