Οι χρήστες του Microsoft 365 Copilot κινδύνευαν από μια κρίσιμη ευπάθεια για πολλούς μήνες. Ο AI assistant για το εταιρικό λογισμικό μπορούσε να εξαπατηθεί για να αποκαλύψει ευαίσθητες και άλλες πληροφορίες.
Το μόνο που χρειαζόταν ήταν ένα email με έξυπνα διατυπωμένες οδηγίες. Δεν απαιτούνταν ανθρώπινη παρέμβαση (κάποιο κλικ ή κίνηση με το ποντίκι). Αυτό μπορούσε να συμβεί επειδή η τεχνητή νοημοσύνη (AI) διάβαζε και επεξεργαζόταν το email μόνη της. Η Microsoft κατάφερε μετά από καιρό να επιδιορθώσει το πρόβλημα.
Το Copilot είναι ο AI agent για εφαρμογές του Microsoft 365, όπως τα προϊόντα του Office Word, Excel, PowerPoint, Outlook και Teams.
Λόγω της ενσωμάτωσής του στο δίκτυο της εταιρείας, ο AI agent που βασίζεται στο γλωσσικό μοντέλο GPT-4 της OpenAI έχει πρόσβαση σε εταιρικά δεδομένα, μερικά από τα οποία είναι ευαίσθητα.
Οι εισβολείς φυσικά μπορούν να επωφεληθούν από αυτό, καθώς η τεχνητή νοημοσύνη λειτουργεί ανεξάρτητα, διαβάζει και επεξεργάζεται email που αποστέλλονται στους υπαλλήλους. Σε αντίθεση με τα γνωστά email ηλεκτρονικού “ψαρέματος” (phishing), εδώ δεν απαιτείται κάποιο κλικ.
Ερευνητές ασφαλείας από την Aim Security ανακάλυψαν την ευπάθεια τον Ιανουάριο. Απαιτεί ειδική διατύπωση στο email, και ειδικά σχεδιασμένους συνδέσμους. Επίσης, οι οδηγίες για τον βοηθό τεχνητής νοημοσύνης δεν πρέπει να είναι πολύ προφανείς για να μην αντιληφθεί την επίθεση κάποιος άνθρωπος που διαβάζει τα email.
Μακρά η διαδικασία της Microsoft για το κλείσιμο κενών
Η Microsoft αναφέρει αυτό το ευάλωτο σημείο, που ονομάζεται “EchoLeak” από την Aim Security, σαν CVE-2025-32711 και το περιγράφει “κρίσιμο”. Ωστόσο, σύμφωνα με την εταιρεία, δεν έχει ακόμη αξιοποιηθεί και πλέον έχει κλείσει. Ένας εκπρόσωπος της Microsoft δήλωσε στο Fortune ότι θα εφαρμοστούν “επιπλέον εις βάθος άμυνες” για την “περαιτέρω ενίσχυση της ασφάλειας”.
Οι ερευνητές ανακάλυψαν την ευπάθεια (τον Ιανουάριο του τρέχοντος έτους) και την ανέφεραν στη Microsoft, αλλά χρειάστηκαν περίπου πέντε μήνες για να επιλύσει το πρόβλημα.
Βασικό πρόβλημα των AI agents
Σύμφωνα με τον Adir Gruss, συνιδρυτή και Chief Technology Officer της Aim Security, το EchoLeak είναι πιθανό να επηρεάζει και άλλους AI agents, όπως το MCP (Model Context Protocol) της Anthropic, το οποίο συνδέει τους βοηθούς τεχνητής νοημοσύνης με άλλες εφαρμογές, ή το Agentforce από την Salesforce.
Αυτά τα γλωσσικά μοντέλα θα μπορούσαν επίσης να χειραγωγηθούν με παρόμοιο τρόπο για να παρέχουν στους εισβολείς δεδομένα της εταιρείας. Οι εταιρείες που ενσωματώνουν πλέον AI agents στα συστήματά τους, σύμφωνα με τον Gruss δεν θα πρέπει να επαναπαύονται. Κατά την άποψή του, πρόκειται για ένα θεμελιώδες ζήτημα, συγκρίσιμο με τα τρωτά σημεία ασφαλείας λογισμικού της δεκαετίας του 1990, όταν οι εισβολείς προσπαθούσαν να πάρουν τον έλεγχο υπολογιστών ή κινητών τηλεφώνων.
Συνεπώς, ο Gruss ζητά από τους προγραμματιστές να δομούν τα AI agents εντελώς διαφορετικά. “Το γεγονός ότι οι AI agents χρησιμοποιούν αξιόπιστα και μη αξιόπιστα δεδομένα στην ίδια “διαδικασία σκέψης” είναι το θεμελιώδες ελάττωμα σχεδιασμού που τους καθιστά ευάλωτους”, ανέφερε.
Τα AI agents και οι διεργασίες τεχνητής νοημοσύνης θα πρέπει να σχεδιάζονται με σαφή διαχωρισμό των αξιόπιστων εντολών και των μη αξιόπιστων δεδομένων.
Αν και τα δελτία τύπου θα είναι από πολύ επιλεγμένα έως και σπάνια, είπα να περάσω … γιατί καμιά φορά κρύβονται οι συντάκτες.
