ChatGPT رسائل احتيال بالذكاء الاصطناعي

يمكن أن يُساء استخدام ChatGPT أو أدوات الذكاء الاصطناعي بشكل عام، تمامًا كما هو الحال مع أي تكنولوجيا قوية (مثل الإنترنت، أو الهواتف، أو برامج التصميم).
المحتالون يمكن أن يستخدموا هذه الأدوات لصياغة رسائل احتيالية أكثر إقناعًا، تقليد أساليب الكتابة، أو حتى إنتاج محتوى مزيف بشكل أسرع.
وهنا يتذكر بعض الأمثلة على الاستخدامات الضارة:

1ـ كتابة رسائل تصيّد إلكتروني (Phishing) باحترافية.

2ـ إنشاء أخبار كاذبة أو إشاعات مقنعة.

3ـ تقليد أسلوب كتابة شخص معين لخداع الضحية.

4ـ إنتاج محتوى تلقائي ضخم لمواقع أو حسابات احتيالية.
لكن في المقابل:

OpenAI (الشركة المطورة ChatGPT) تضع قيودًا تقنية وأخلاقية للحد من هذا النوع من الاستخدامات، مثل

350 * 350

1ـ منع إنشاء محتوى احتيالي أو مضلل عمدًا.

2ـ مراقبة الأنشطة المشبوهة داخل الاستخدام التجاري أو المؤسسي.

3ـ تحسين فلاتر الأمان والردود التي ترفض المساعدة في الأنشطة الضارة.

ChatGPT أداة قوية، ويمكن أن تُستخدم في الخير أو الشر.

المسؤولية تقع على المستخدم.

يجب رفع مستوى الوعي الرقمي، وتعليم الناس كيف يحمون أنفسهم من الأساليب الجديدة في الاحتيال.

اترك رد

لن يتم نشر عنوان بريدك الإلكتروني.