تم تجاوز الإنترنت مع الروبوتات ، وهذه مشكلة

تم تجاوز الإنترنت مع الروبوتات ، وهذه مشكلة

يتم ذكر ما يقرب من نصف حركة المرور على الإنترنت من خلال الوحدات الآلية التي تسمى BOTS ، وجزء كبير منها تهديدات للمستهلكين والشركات على الإنترنت.

“[B]يمكن أن تساعد OTS في إنشاء احتيال التصيد من خلال الحصول على ثقة المستخدم واستخدامه للمحتالين. يمكن أن يكون لهذا الاحتيال آثار خطيرة على الضحية ، والتي تشمل بعضها الخسائر المالية وسرقة الهوية وانتشار البرامج الضارة “، كريستوف سيبر ، مؤسس AIPRM ، تطبيق الذكاء الاصطناعي ، في ويلمنجتون ، ديل. قال في شرح لتكنوورلد.

“لسوء الحظ ، ليس هذا هو التهديد الوحيد للسلامة الذي تم تجهيزه من قبل الروبوتات” ، تابع. “يمكنك أيضًا إلحاق الضرر بسمعة العلامة التجارية ، خاصة بالنسبة للعلامات التجارية والشركات ذات ملامح وسائل التواصل الاجتماعي الشهيرة ومعدلات الالتزام العالية. من خلال تعاون علامة تجارية ذات ممارسات احتيالية وغير أخلاقية ، يمكن أن تؤثر الروبوتات على سمعة العلامة التجارية وتقليل ولاء المستهلكين. “

وفقًا للتقرير الصادر عن Imperva 2024 Bad Bot ، زاد مستوى حركة المرور السيئ للمرة الخامسة على التوالي ، مما يشير إلى اتجاه ينذر بالخطر. وقد وجد أن الزيادة مدعومة أحيانًا بزيادة شعبية الذكاء الاصطناعي (AI) ونماذج التعلم الكبيرة (LLMS).

في عام 2023 ، شكلت الروبوتات السيئة 32 ٪ من إجمالي حركة المرور على الإنترنت – بزيادة قدرها 1.8 ٪ مقارنة بعام 2022 ، حسبما ذكر التقرير. زاد جزء من حركة المرور الجيدة أيضًا ، وإن كان أقل أهمية بقليل ، من 17.3 ٪ من إجمالي حركة المرور على الإنترنت في 2022 إلى 17.6 ٪ في عام 2023. مستويات حركة الإنسان 50.4 ٪ من إجمالي حركة المرور.

وقال جيمس ماكويغان ، وهو موفر تدريب على الوعي الأمني ​​في كليرووتر ، فلوريدا: “تساعد الروبوتات الجيدة على الإشارة إلى الويب لمحركات البحث ، وأتمتة مراقبة الأمن السيبراني ودعم خدمة العملاء من خلال الدردشة”.

وقال لـ TechnewSworld “إنهم يساعدون في اكتشاف نقاط الضعف ، وتحسين سير عمل تكنولوجيا المعلومات والرفع عبر الإنترنت”. “الحيلة هي معرفة الأتمتة القيمة وما هي الأنشطة المخزية”.

Ticketkalping على نطاق

أوضح توماس ريتشاردز ومدير تدريب فريق Red Team في Black Duck Software ، وهي شركة أمان للتطبيق في بيرلينجتون.

وقال لـ Technewsworld “إذا كنت قادرًا على توسيع نطاق نفسك ، فإن الجهات الفاعلة الخبيثة تجعل من الممكن تحقيق أهدافهم”. “إن الذكاء الاصطناعي له تأثير من خلال السماح لهؤلاء الجهات الفاعلة الضارة بالتصرف بشكل أكثر إنسانية وأتمتة الترميز وغيرها من المهام. على سبيل المثال ، أعلنت Google أن Gemini تم استخدامها لإنشاء أشياء ضارة. “

وتابع “نرى هذا أيضًا في التجارب اليومية الأخرى”. يمكن أن يجد Scalper طرقًا لإنشاء المستخدمين أو استخدام حسابات معرضة للخطر لشراء التذاكر بشكل أسرع من الشخص الذي يمكن أن يكون على الإطلاق. تكسب المال عن طريق بيع التذاكر بسعر أعلى بكثير. “

من البسيط والمربح توفير هجمات آلية ، وأضاف ستيفن كوسكي ، Field CTO في Slasnext ، وهي شركة أمان للكمبيوتر والشبكات في Pleasanton ، كاليفورنيا.

وقال لـ TechnewSworld “يستخدم المجرمون أدوات متطورة للغاية لتجنب التدابير الأمنية التقليدية”. “تجعل الأنظمة التي تعمل من الذكاء الاصطناعى الروبوتات أكثر إقناعًا ويصعب إدراكها حتى يتمكنوا من تقليد السلوك البشري بشكل أفضل والتكيف مع التدابير الدفاعية.”

وقال “إن مزيج أدوات الذكاء الاصطناعى المتاحة قليلاً والقيمة المتزايدة للبيانات المسروقة ستخلق ظروفًا مثالية لهجمات الروبوت الأكثر تقدماً في المستقبل”.

لماذا تشكل الروبوتات السيئة تهديدًا خطيرًا

يتوقع David Brauchler ، المدير الفني ورئيس AI و ML Security في NCC Group ، وهي نصيحة عالمية للأمن السيبراني ، أن تستمر حركة المرور على الإنترنت غير الإنسانية.

“نظرًا لأن المزيد من الأجهزة متصلة على الإنترنت ، تتم إضافة منصات SAAS إلى بعضها البعض ، والأجهزة الضعيفة الجديدة في المشهد لديها فرصة لزيادة حصتها من عرض النطاق الترددي للشبكة”.

وأضاف Brauchler أن الروبوتات السيئة قادرة على إلحاق الأضرار الكبيرة. وقال “تم استخدام الروبوتات لإثارة حالات الفشل الجماعي من خلال موارد الشبكة الساحقة لرفض الوصول إلى الأنظمة والخدمات”.

وقال: “مع ظهور الذكاء الاصطناعى التوليدي ، يمكن أيضًا استخدام الروبوتات لنقل أنشطة المستخدم الواقعية على المنصات عبر الإنترنت ، وزيادة مخاطر البريد العشوائي والاحتيال”. “يمكنك أيضًا مسح الثغرات الأمان واستغلاله في أنظمة الكمبيوتر.”

وادعى أن أكبر خطر من الذكاء الاصطناعى هو انتشار البريد العشوائي. وقال “لا يوجد حل تقني قوي لتحديد وحظر هذا النوع من المحتوى عبر الإنترنت”. “تمكن المستخدمون من وصف هذه الظاهرة الذكاء ، وهناك خطر من غرق إشارة التفاعلات المشروعة عبر الإنترنت في ضوضاء المحتوى الاصطناعي.”

ومع ذلك ، حذر من أن الصناعة يجب أن تكون حذرة للغاية عند النظر إلى أفضل حل لهذه المشكلة. وقال “يمكن إضافة العديد من العلاجات المحتملة إلى مزيد من الضرر ، وخاصة تلك التي تخاطر بمهاجمة المجال الخاص عبر الإنترنت”.

كيفية تحديد الروبوتات الخبيثة

اعترف Brauchler بأنه قد يكون من الصعب على الناس التعرف على عرض ضار. وقال “الغالبية العظمى من الروبوتات لا تعمل بأي طريقة يمكن للناس التعرف عليها”. “يمكنك الاتصال بالأنظمة المعرضة للإنترنت مباشرة ، حيث يمكنك الاستعلام عن البيانات أو التفاعل مع الخدمات.”

“إن فئة الروبوت التي يتعامل معها معظم الناس هي وكلاء الذكاء الاصطناعى المستقلين ، والذين ، كبشر ، يمكنهم التمويه كبشر لخداع الناس عبر الإنترنت”. “تستخدم العديد من chatbots منظمة العفو الدولية أنماط لغة يمكن التنبؤ بها يمكن للمستخدمين تعلمها من خلال التفاعل عبر الإنترنت مع مولدات نص AI.”

وقال “وبالمثل ، تحتوي الصور التي تم إنشاؤها من الذكاء الاصطناعى على عدد من” القصص “التي يمكن للمستخدمين البحث عنها ، بما في ذلك الأنماط المكسورة مثل اليدين والساعات المحاذاة بشكل غير صحيح ، وحواف الكائنات التي تذوب في كائنات أخرى وإلحاقها”.

وأضاف “أصوات الذكاء الاصطناعى لديها أيضًا تعبيرات غير عادية للركض والتعبيرات الصوتية التي يمكن للمستخدمين تعلمها”.

غالبًا ما يتم استخدام الروبوتات المستندة إلى Böswilt على منصات التواصل الاجتماعي لتلقي وصول جديرة بالثقة إلى الأفراد أو المجموعات. “انتبه إلى شخصيات غادرة مثل الأنماط غير العادية في طلبات الصداقة ، وصور الملفات الشخصية أو المسروقة التي تنشر بسرعات أو ترددات غير إنسانية” ، حذر كوسكي.

كما نصح بالتحرك أمام الملفات الشخصية مع معلومات شخصية محدودة ، وأنماط التزام مشبوه أو جداول الأعمال المحددة من خلال الإجابات الآلية.

في المؤسسة ، واصل أن تحليل السلوك في الوقت الفعلي يمكن أن يتعرف على الإجراءات الآلية التي لا تتوافق مع الأنماط البشرية الطبيعية ، مثل: ب. نقرات سريعة بشكل لا يصدق أو الوفاء.

تهديد للشركات

يمكن أن تشكل Böslike Bots تهديدًا كبيرًا للشركات ، Ken Dunham ، مدير وحدة أبحاث التهديدات في Parenies ، وهو مزود لحلول تكنولوجيا المعلومات والامتثال المستندة إلى مجموعة النظراء في Foster City ، كاليفورنيا.

وقال لـ Technewsworld “بمجرد جمعها من قبل ممثل التهديد ، يمكن أن يكونوا مسلحين”. “لدى الروبوتات موارد ومهارات لا تصدق لتنفيذ هجمات مجهولة وموزعة وغير متزامنة ضد أهداف الانتخابات ، مثل:

وأضاف McQuiggan أن الروبوتات العنيفة يمكن أن يعالج بوابات التسجيل ونقاط نهاية واجهة برمجة التطبيقات والأنظمة الموجهة للجمهور التي تخلق مخاطر بالنسبة للمؤسسات كممثلين سيئين بعد نقاط الضعف من أجل إيجاد طريقة للوصول إلى البنية التحتية الداخلية والبيانات الداخلية ، كما أضاف McQuiggan.

وقال “بدون استراتيجيات للحد من الروبوت ، يمكن أن تكون الشركات عرضة للتهديدات الآلية”.

من أجل تخفيف التهديدات من الروبوتات السيئة ، أوصى بأن المصادقة متعددة العوامل ، وحلول الكشف عن الروبوت التكنولوجية ومراقبة حركة المرور للشذوذ.

كما أوصى بحظر وكلاء المستخدمين القدامى ، واستخدام Captchas ، وإذا أمكن ، لتقييد التفاعلات من أجل تقليل معدلات النجاح.

“من خلال تشكيل الوعي الأمني ​​وإدارة المخاطر البشرية ، فإن معرفة الموظف عن طريق محاولات التصيد والاحتيال التي يسيطر عليها الروبوت يمكن أن تضمن ثقافة أمنية صحية وتقليل خطر حدوث هجوم ناجح على الروبوت”.

مصدر

Comments

No comments yet. Why don’t you start the discussion?

Leave a Reply

Your email address will not be published. Required fields are marked *