Έχετε σκεφτεί ποτέ πώς χρησιμοποιούν οι κυβερνοεγκληματίες την τεχνητή νοημοσύνη ή ακόμα και οι ομάδες που υπερασπίζονται την ασφάλειά μας στην κυβερνοασφάλεια;
«Και γιατί με αφορά αυτό;» μπορεί να αναλογιστείτε κάποιοι. Μπορεί να φαίνεται περίπλοκο ή άσχετο με την καθημερινή μας ζωή, αλλά η κατανόηση της λειτουργίας της τεχνητής νοημοσύνης στην κυβερνοασφάλεια είναι προς όφελός μας.
Η τεχνητή νοημοσύνη βοηθά τις εταιρείες να προστατέψουν τα προσωπικά μας δεδομένα και να ανιχνεύσουν απειλές. Όμως, την ίδια στιγμή, οι κυβερνοεγκληματίες χρησιμοποιούν την ίδια τεχνολογία για να δημιουργήσουν πιο αποτελεσματικές απάτες και επιθέσεις. Γνωρίζοντας λίγο περισσότερα γι’ αυτό, μπορούμε να προστατευτούμε καλύτερα και να είμαστε πιο προσεκτικοί online.
Table of Contents
Γιατί χρησιμοποιείται η τεχνητή νοημοσύνη από τις ομάδες κυβερνοασφάλειας;
Οι ομάδες κυβερνοασφάλειας σήμερα χρειάζονται περισσότερο από ποτέ αποτελεσματικά εργαλεία βασισμένα στην τεχνητή νοημοσύνη, και αυτό για τρεις λόγους, μας λένε οι ειδικοί από την ομάδα της εταιρίας κυβερνοασφάλειας ESET:
-
Δεν υπάρχουν αρκετοί ειδικοί στην κυβερνοασφάλεια
Κατά την τελευταία καταγραφή, υπήρχε έλλειψη περίπου τεσσάρων εκατομμυρίων επαγγελματιών κυβερνοασφάλειας παγκοσμίως, συμπεριλαμβανομένων 348.000 στην Ευρώπη και 522.000 στη Βόρεια Αμερική. Οι εταιρείες χρειάζονται εργαλεία για να ενισχύσουν την παραγωγικότητα του προσωπικού που διαθέτουν και να προσφέρουν καθοδήγηση σχετικά με την ανάλυση απειλών και την αποκατάσταση ελλείψει εξειδικευμένων συναδέλφων. Σε αντίθεση με τους ανθρώπους, η τεχνητή νοημοσύνη μπορεί να λειτουργεί 24 ώρες το 24ωρο, 7 μέρες την εβδομάδα, 365 μέρες το χρόνο, και να εντοπίζει μοτίβα που μπορεί να διαφεύγουν από τους επαγγελματίες της κυβερνοασφάλειας.
-
Οι φορείς απειλών είναι ευέλικτοι, αποφασισμένοι και διαθέτουν επαρκείς πόρους
Και ενόσω οι ομάδες κυβερνοασφάλειας αγωνίζονται να προσλάβουν προσωπικό, οι αντίπαλοί δυναμώνουν όλο και περισσότερο. Σύμφωνα με μια εκτίμηση, η οικονομία του κυβερνοεγκλήματος θα μπορούσε να κοστίσει έως και 10,5 τρισεκατομμύρια δολάρια ετησίως έως το 2025. Οι φορείς απειλών μπορούν να βρουν όλα τα εργαλεία που χρειάζονται για να εξαπολύσουν επιθέσεις, τα οποία πλέον προσφέρονται έτοιμα «ως υπηρεσία». Τρίτα μέρη προσφέρουν πρόσβαση σε οργανισμούς τα συστήματα των οποίων έχουν ήδη παραβιαστεί. Aκόμη και κρατικοί φορείς εμπλέκονται σε επιθέσεις με οικονομικά κίνητρα – κυρίως η Βόρεια Κορέα, αλλά και η Κίνα και άλλα έθνη. Σε κράτη όπως η Ρωσία, η κυβέρνηση κατηγορείται για την ενεργή καλλιέργεια αντιδυτικού χακτιβισμού.
-
Το στοίχημα είναι δύσκολο και σημαντικό
Καθώς οι ψηφιακές επενδύσεις έχουν αυξηθεί με την πάροδο των ετών, έχει αυξηθεί και η εξάρτηση από τα συστήματα πληροφορικής για την προώθηση της βιώσιμης ανάπτυξης και του ανταγωνιστικού πλεονεκτήματος. Οι υπεύθυνοι κυβερνοασφάλειας γνωρίζουν ότι αν αποτύχουν να αποτρέψουν ή να εντοπίσουν και να περιορίσουν γρήγορα τις κυβερνοαπειλές, η εταιρεία τους θα μπορούσε να υποστεί σημαντική οικονομική ζημία και ζημιά στη φήμη της. Μια παραβίαση δεδομένων κοστίζει σήμερα κατά μέσο όρο 4,45 εκατ. δολάρια. Αλλά μια σοβαρή παραβίαση ransomware που συνεπάγεται διακοπή υπηρεσιών και κλοπή δεδομένων θα μπορούσε να προκαλέσει πολλαπλάσιο κόστος. Σύμφωνα με εκτιμήσεις, τα χρηματοπιστωτικά ιδρύματα έχουν χάσει 32 δισ. δολάρια λόγω διακοπής υπηρεσιών από το 2018.
Πώς χρησιμοποιούν την τεχνητή νοημοσύνη οι κυβερνοεγκληματίες;
Δυστυχώς, οι κυβερνοεγκληματίες έχουν βάλει στο στόχαστρό τους και την τεχνητή νοημοσύνη. Σύμφωνα με το Εθνικό Κέντρο Κυβερνοασφάλειας του Ηνωμένου Βασιλείου (NCSC), η τεχνητή νοημοσύνη θα «αυξήσει την παγκόσμια απειλή ransomware» και «είναι σχεδόν βέβαιο ότι θα αυξήσει τον όγκο και τον αντίκτυπο των κυβερνοεπιθέσεων τα επόμενα δύο χρόνια».
Ας δούμε πώς χρησιμοποιούν την τεχνητή νοημοσύνη οι φορείς απειλών:
- Κοινωνική μηχανική: Μια από τις πιο προφανείς χρήσεις της GenAI είναι να βοηθά τους φορείς απειλών να δημιουργήσουν πειστικές και συντακτικά τέλειες εκστρατείες phishing σε μεγάλη κλίμακα.
- Business Email Compromise (BEC) και άλλες απάτες: Για άλλη μια φορά, η τεχνολογία GenAI μπορεί να χρησιμοποιηθεί για να μιμηθεί το στυλ γραφής ενός συγκεκριμένου ατόμου ή μιας εταιρείας, για να ξεγελάσει το θύμα ώστε να μεταφέρει χρήματα ή να παραδώσει ευαίσθητα δεδομένα/κωδικούς. Ο ήχος και το βίντεο Deepfake μπορούν επίσης να χρησιμοποιηθούν για τον ίδιο σκοπό. Το FBI έχει εκδώσει πολλές προειδοποιήσεις σχετικά με αυτό στο παρελθόν.
- Παραπληροφόρηση: Η GenAI μπορεί επίσης να αναλάβει τη δημιουργία περιεχομένου που θα χρησιμοποιηθεί για επιχειρήσεις επιρροής της κοινής γνώμης. Μια πρόσφατη έκθεση προειδοποίησε ότι η Ρωσία χρησιμοποιεί ήδη τέτοιες τακτικές – οι οποίες θα μπορούσαν να αναπαραχθούν ευρέως εάν αποδειχθούν επιτυχείς.
Τα όρια της τεχνητής νοημοσύνης
Η τεχνητή νοημοσύνη είναι ένα ισχυρό εργαλείο, αλλά, καλώς ή κακώς, αυτή τη στιγμή οι δυνατότητές της είναι περιορισμένες. Μπορεί πχ να κάνει λάθη, όπως το να χαρακτηρίζει ως απειλές κάποιες ασφαλείς δραστηριότητες και να χρειάζεται δεδομένα υψηλής ποιότητας και ανθρώπινη επίβλεψη για να λειτουργήσει σωστά. Αυτό σημαίνει ότι η τεχνητή νοημοσύνη δεν αποτελεί την τέλεια λύση ούτε για τους επιτιθέμενους ούτε για τους αμυνόμενους στην κυβερνοασφάλεια.
Στο μέλλον, όμως, μπορεί να δούμε συστήματα τεχνητής νοημοσύνης να αναμετριούνται μεταξύ τους – κάποια να προσπαθούν να διαπεράσουν τις άμυνες και να ξεγελάσουν τους ανθρώπους, ενώ άλλα να εργάζονται για την ανίχνευση και τη διακοπή αυτών των κακόβουλων δραστηριοτήτων. Αυτό σηματοδοτεί την έναρξη ενός νέου είδους αμυντικού αγώνα στην κυβερνοασφάλεια.
Εάν το κατανοήσουμε αυτό, θα μπορέσουμε να δούμε τόσο τις δυνατότητες όσο και τις προκλήσεις της τεχνητής νοημοσύνης για τη διατήρηση της ασφάλειας του ψηφιακού μας κόσμου.
Εάν σας ενδιαφέρει αυτό το θέμα, διαβάστε τη νέα λευκή βίβλο της ESET στην οποία αποκαλύπτει διεξοδικά τους κινδύνους και τις ευκαιρίες για τους υπερασπιστές της κυβερνοασφάλειας.