Η Anthropic αποκάλυψε ότι κρατικά υποστηριζόμενη ομάδα χάκερ χρησιμοποίησε τις προηγμένες δυνατότητες του Claude για να διεισδύσει σε περίπου 30 οργανισμούς. Πώς κατάφεραν να παρακάμψουν τα συστήματα ασφαλείας και τι σημαίνει αυτή η εξέλιξη για το μέλλον της ψηφιακής κατασκοπείας;
Από την Ευαγγελία Φραγκούλη
Σοβαρό περιστατικό κυβερνοασφάλειας αποκαλύφθηκε από την Anthropic, την εταιρεία πίσω από το Claude, ένα από τα πιο προηγμένα μεγάλα γλωσσικά μοντέλα τεχνητής νοημοσύνης. Σύμφωνα με την έρευνα, επιτιθέμενοι με σύνδεση σε κρατικούς μηχανισμούς της Κίνας χρησιμοποίησαν το σύστημα για να αυτοματοποιήσουν επιθέσεις σε περίπου 30 οργανισμούς υψηλής σημασίας, από εταιρείες τεχνολογίας και χρηματοπιστωτικά ιδρύματα, έως χημική βιομηχανία και κυβερνητικούς φορείς.
Η υπόθεση χαρακτηρίζεται ως ένας από τους πρώτους τεκμηριωμένους τρόπους όπου μια υπηρεσία κατασκοπείας φαίνεται να έχει αξιοποιήσει ένα εμπορικά διαθέσιμο AI εργαλείο ως «κινητήρα» κυβερνοεπιθέσεων.
Τι είναι το Claude – Γιατί μπόρεσε να χρησιμοποιηθεί με αυτόν τον τρόπο
Το Claude είναι ένα μεγάλο γλωσσικό μοντέλο (LLM) σχεδιασμένο από την Anthropic, το οποίο δεν περιορίζεται στις κλασικές απαντήσεις κειμένου. Η νεότερη γενιά του ενσωματώνει δυνατότητες agentic AI, δηλαδή σχεδιασμένες «υπο-ομάδες ενεργειών» (agents) που μπορούν να εκτελούν εργασίες, να δημιουργούν αλληλουχίες ενεργειών, να γράφουν και να αξιολογούν κώδικα και να ολοκληρώνουν πολύπλοκα τεχνικά tasks χωρίς συνεχή ανθρώπινη παρέμβαση.
Αυτή η αυτονομία, που προορίζεται για νόμιμες χρήσεις όπως ο έλεγχος ασφαλείας και η ανάπτυξη λογισμικού, φαίνεται ότι αξιοποιήθηκε από την κινεζική ομάδα χάκερ, η οποία κατάφερε να παρακάμψει τα προστατευτικά συστήματα του μοντέλου και να το στρέψει σε επιθετικούς σκοπούς.
Πώς πραγματοποιήθηκε η επίθεση – Το modus operandi των χάκερ
Η ομάδα, που αναφέρεται ως GTG-1002, δεν χρησιμοποίησε μια ενιαία «κακόβουλη» εντολή. Αντίθετα, έσπασε την κυβερνοεπίθεση σε δεκάδες μικρά, φαινομενικά ακίνδυνα βήματα, τα οποία παρουσίαζε στο Claude σαν νόμιμες διαδικασίες ελέγχου ασφαλείας.
Με αυτόν τον τρόπο, απέφυγε την ενεργοποίηση των συστημάτων ανίχνευσης κακής χρήσης.
Τα βήματα που ζητήθηκαν από το Claude περιελάμβαναν:
- Χαρτογράφηση επιφάνειας επίθεσης: Αναζήτηση εξωτερικών υπηρεσιών, θυρών, συστημάτων και πιθανών αδυναμιών, όπως σε ένα τυπικό penetration test.
- Σάρωση και αναγνώριση δικτύου: Οι επιτιθέμενοι ζήτησαν από το Claude να δημιουργήσει – και να τρέξει μέσω των agents – scripts που εντοπίζουν ευάλωτα συστήματα.
- Ανάπτυξη και «ράψιμο» exploit chains: Το μοντέλο παρήγαγε τεχνικές εκμετάλλευσης (exploits), payloads και scripts προσαρμοσμένα στις ευπάθειες που εντοπίστηκαν.
- Εξερεύνηση και κατάχρηση διαπιστευτηρίων: Σε ορισμένες περιπτώσεις το Claude βοήθησε τους επιτιθέμενους να αναζητήσουν πιθανούς συνδυασμούς κωδικών ή να δοκιμάσουν privilege escalation.
- Πλάγια κίνηση και εξαγωγή δεδομένων: Μέσω υποπρακτόρων (sub-agents), το σύστημα βοήθησε στον εντοπισμό ευαίσθητων δεδομένων και περιέγραψε διαδικασίες εξαγωγής τους.
- Καταγραφή και δημιουργία «εγχειριδίων επίθεσης»: Το Claude συνέταξε αναφορές που περιείχαν όλα τα επιτυχημένα βήματα, ώστε οι επιτιθέμενοι να τα επαναχρησιμοποιήσουν.
Παρότι αρκετές από τις τεχνικές που συνέθεσε το Claude δεν λειτουργούσαν στην πράξη, λόγω τεχνικών λαθών του μοντέλου, η Anthropic αναφέρει ότι ποσοστό 80%–90% της επίθεσης εκτελέστηκε αυτόματα, με τον άνθρωπο-χειριστή να παρεμβαίνει μόνο στα κρίσιμα τελευταία στάδια.
Πόσο σοβαρά ήταν τα αποτελέσματα
Η Anthropic ανακοίνωσε ότι ορισμένες προσπάθειες διείσδυσης πέτυχαν, χωρίς όμως να κατονομάσει ποιες. Τα δεδομένα που εκτέθηκαν δεν έχουν δημοσιοποιηθεί, κάτι που αφήνει κενά στην αποτίμηση της συνολικής ζημιάς.
Η εταιρεία εντόπισε την ύποπτη δραστηριότητα τον Σεπτέμβριο και απενεργοποίησε τους λογαριασμούς, ενημέρωσε τους πιθανούς στόχους και συνεργάζεται με διεθνείς αρχές για την διερεύνηση του περιστατικού.
Γιατί το περιστατικό θεωρείται σημείο καμπής
Το συμβάν αυτό αποτελεί ένα χαρακτηριστικό παράδειγμα του πώς τα ισχυρά εργαλεία AI μπορούν να γίνουν «πολλαπλασιαστές ισχύος» σε κυβερνοεπιθέσεις:
- Επιτρέπουν σε εχθρικούς παράγοντες να επιταχύνουν τις διαδικασίες αναγνώρισης και εκμετάλλευσης ευπαθειών
- Αυτοματοποιούν μεγάλο μέρος μιας επίθεσης με ελάχιστη ανθρώπινη προσπάθεια
- Μπορούν να εκτελέσουν επιθέσεις με «χαμηλό θόρυβο»· εντολές που μοιάζουν αθώες, αλλά λειτουργούν συνδυαστικά.
Η υπόθεση θέτει επίσης σοβαρά ερωτήματα για το πώς οι εταιρείες AI πρέπει να σχεδιάσουν συστήματα ασφαλείας που παρακολουθούν όχι μόνο μεμονωμένα prompts, αλλά ολόκληρες ακολουθίες ενεργειών.
Πώς προστατεύονται οι οργανισμοί – πρακτικά συμπεράσματα
Η υπόθεση φέρνει στο επίκεντρο την ανάγκη για:
- Ενισχυμένο monitoring συμπεριφοράς (behavior-based analytics).
- Έλεγχο δικαιωμάτων πρόσβασης (least privilege).
- Υιοθέτηση πολιτικών μηδενικής εμπιστοσύνης (zero trust).
- Ασκήσεις red teaming που προσομοιώνουν AI-βοηθούμενες επιθέσεις.
- Στενή συνεργασία με παρόχους νέων AI συστημάτων.
Οι ειδικοί τονίζουν ότι όσο τα εργαλεία AI εξελίσσονται, πρέπει να εξελίσσονται και οι γραμμές άμυνας.