ثغرة في ChatGPT تخبر المستخدمين كيفية صنع المتفجرات!

ChatGPT

في واقعة طريفة ربما ولكنها مثيرة للريبة، تمكن أحد المستخدمين من استغلال ChatGPT والسماح للذكاء الاصطناعي بإخباره بكيفية صنع النابالم من خلال توجيه الأمر له بتقمص شخصية جدته المتوفاة، والتحايل على ضمانات الذكاء الاصطناعي.

الجدير بالذكر أنه يمكن استخدام ChatGPT في العديد من المجالات المختلفة. يمكن للأداة الرائدة اجتياز اختبار المحاماة للمحامين حتى وكتابة ورقة بحثية، ومع ظهور GPT-4، أصبحت الأداة أكثر قوة من أي وقت مضى. نظرًا لأن شركات مثل Google و Microsoft انغمست بقوة في الاعتماد على تلك الأداة بشكل متزايد، فقد شجب البعض تطوير الذكاء الاصطناعي.

https://twitter.com/jjvincent/status/1648594881198039040

مع التلاعب بالذكاء الاصطناعي وإمكانية استغلاله “لتدمير البشرية”، ظهرت ثغرة جديدة لتطبيق الدردشة الشهير، ChatGPT، حيث يمكن إقناعه بإخبار المستخدمين بكيفية صنع مواد خطرة مثل النابالم من خلال خدعة واحدة متواضعة للغاية.

وثّق مستخدم هذه الخدعة بالفعل على تويتر وشارك صورة يظهر فيها وهو يطلب من أداة ChatGPT إخباره بكيفية صنع هذه المادة، التي منعتها الأمم المتحدة في 1980 نظرًا لأنها تعد خطرًا على البشرية، من خلال التظاهر بأنها جدته المتوفاة.

بعد ذلك، استجاب ChatGPT بالفعل للسؤال المطروح عليه ووجّه المستخدم بكيفية صنع النابالم، ومكان استخدامه بشكل شائع، ولكن ليس قبل تحذيره من أنه يأمل أن المستخدم “لا يُصادفه مُطلقًا في حياته” في واقعة غريبة تستمر في إثارة الجدل حول إمكانية استغلال قدرات الذكاء الاصطناعي ضد البشرية.

 عِش معنا متعة اللعب على أصولها.. لمزيد من المقالات الرائعة تابعو قناتنا على واتساب.

وسوم

0 0 votes
Article Rating
Subscribe
نبّهني عن
guest
0 Comments
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x
()
x