Τεχνητή Νοημοσύνη: Τα πλαστά e-mails ή τα SMS και οι προειδοποιήσεις των ειδικών

17
exniti noimosini focus

Τα εργαλεία της Τεχνητής Νοημοσύνης (AI) έχουν φτάσει σε ένα επίπεδο όπου μπορούν να δημιουργούν κείμενα, εικόνες και βίντεο με εξαιρετική ακρίβεια, δίνοντας τη δυνατότητα σε επιτήδειους να στήνουν ιδιαίτερα εξελιγμένες απάτες. Οι ειδικοί στον τομέα της κυβερνοασφάλειας προειδοποιούν ότι οι κίνδυνοι αυξάνονται και προτρέπουν τους χρήστες να βρίσκονται σε επιφυλακή.

Οι Κυβερνοεπιθέσεις σε Άνοδο

Από την περίπτωση της Γαλλίδας που εξαπατήθηκε και έδωσε 830.000 ευρώ σε έναν ψεύτικο Μπραντ Πιτ, μέχρι τις εικονικές καμπάνιες συγκέντρωσης χρημάτων για θύματα πυρκαγιών, οι κυβερνοεπιθέσεις γίνονται όλο και πιο σύνθετες. «Ιδιώτες και επιχειρήσεις αποτελούμε πλέον όλους στόχους των κυβερνοεγκληματιών», δηλώνει ο Arnaud Lemaire, επικεφαλής της εταιρείας κυβερνοασφάλειας F5.

Μία από τις πιο διαδεδομένες μορφές διαδικτυακής απάτης είναι το phishing, όπου εγκληματίες στέλνουν emails ή SMS με ψεύτικες προσκλήσεις, παρακινώντας τους χρήστες να κλικάρουν σε επικίνδυνους συνδέσμους και να αποκαλύψουν προσωπικά δεδομένα. Με τη βοήθεια των chatbots, οι δράστες δημιουργούν πιο ρεαλιστικά και εξατομικευμένα μηνύματα, αυξάνοντας τις πιθανότητες επιτυχίας της απάτης.

Η Τεχνητή Νοημοσύνη Ως «Σύμμαχος» των Εγκληματιών

Η AI επιτρέπει στους επιτήδειους να ξεπερνούν εμπόδια όπως οι γλωσσικές ασυνέπειες. «Αν ένας απατεώνας δεν γνωρίζει καλά μία γλώσσα, μπορεί να χρησιμοποιήσει την Τεχνητή Νοημοσύνη για να συντάξει άψογα μηνύματα, εξαλείφοντας τα ύποπτα ορθογραφικά και συντακτικά λάθη», εξηγεί ο Lemaire.

Ακόμα πιο ανησυχητικό είναι το γεγονός ότι υπάρχουν AI μοντέλα που αναλύουν δεδομένα και δημιουργούν εξατομικευμένα σενάρια εξαπάτησης. «Πριν από λίγα χρόνια, αυτό θα απαιτούσε έναν ολόκληρο στρατό από απατεώνες. Τώρα, μπορεί να γίνει με ελάχιστους πόρους», τονίζει ο Steve Grobman, τεχνικός διευθυντής της McAfee.

Οι Deepfake Απάτες και οι Επιθέσεις στις Επιχειρήσεις

Η Τεχνητή Νοημοσύνη δεν περιορίζεται μόνο στη δημιουργία ψεύτικων κειμένων, αλλά και σε deepfake βίντεο. Το Φεβρουάριο του 2024, εγκληματίες χρησιμοποίησαν AI-generated βίντεο για να αποσπάσουν 26 εκατομμύρια ευρώ από πολυεθνική στο Χονγκ Κονγκ. Ένας υπάλληλος βρέθηκε σε τηλεδιάσκεψη με αυτό που πίστευε ότι ήταν ο διευθύνων σύμβουλος και άλλα στελέχη της εταιρείας, όμως στην πραγματικότητα επρόκειτο για deepfake.

«Η νέα γενιά deepfake είναι τόσο προηγμένη που σχεδόν κανείς δεν μπορεί να διακρίνει τη διαφορά από το πραγματικό», προειδοποιεί ο Grobman. Για παράδειγμα, ένας ερευνητής της McAfee αντικατέστησε το πρόσωπό του με αυτό του Τομ Κρουζ με κόστος μόλις 5 ευρώ.

Πώς Μπορούμε να Προστατευτούμε;

Οι ειδικοί προτείνουν την εφαρμογή απλών αλλά αποτελεσματικών μεθόδων για την αναγνώριση των απάτων. Ο Arnaud Lemaire συμβουλεύει τους χρήστες να χρησιμοποιούν «λέξεις-κλειδιά» στις συνομιλίες τους για να διαπιστώσουν αν συνομιλούν με πραγματικό πρόσωπο. Ένας άλλος τρόπος είναι να ζητήσει κανείς από τον συνομιλητή του να στρέψει την κάμερα και να δείξει το χώρο γύρω του, κάτι που η Τεχνητή Νοημοσύνη δεν μπορεί ακόμα να αναπαράγει με απόλυτη πειστικότητα.

Η Οργανωμένη Δομή των Κυβερνοεγκληματιών

Η κυβερνοεγκληματικότητα έχει εξελιχθεί σε μία επικερδή βιομηχανία με οργανωμένες εφοδιαστικές αλυσίδες και ολόκληρο οικοσύστημα υποστήριξης. Ακόμα και μετά από την εξάρθρωση μεγάλων δικτύων όπως το Lockbit το 2024, οι εγκληματίες βρίσκουν νέους τρόπους για να συνεχίσουν τη δράση τους.

Ωστόσο, ο Martin Kraemer από την εταιρεία KnowBe4 παραμένει αισιόδοξος: «Μπορούμε να χρησιμοποιήσουμε την Τεχνητή Νοημοσύνη όχι μόνο για την επίθεση, αλλά και για την άμυνα». Η τεχνολογία μπορεί να γίνει ένα ισχυρό εργαλείο προστασίας αν χρησιμοποιηθεί σωστά, δημιουργώντας νέες μεθόδους ανίχνευσης και πρόληψης των ψηφιακών απειλών.

Η μάχη ανάμεσα στους κυβερνοεγκληματίες και τους ειδικούς ασφαλείας συνεχίζεται, αλλά ένα είναι βέβαιο: στην ψηφιακή εποχή, η εγρήγορση είναι το κλειδί για την ασφάλεια.