Στο RSAC 2026, ο Mitch Ashley, αντιπρόεδρος και επικεφαλής πρακτικής στο Futurum Group, και ο Alan Shimel, ιδρυτής και διευθύνων σύμβουλος του Techstrong Group, εξήγησαν ότι δεν είναι πλέον δυνατό οι άνθρωποι να προστατεύουν τα ευαίσθητα συστήματα μόνοι τους. Προτείνουν ότι, παρά την ταχεία ανάπτυξη της τεχνητής νοημοσύνης (AI) και το τρέχον πεδίο προϊόντων με ανεπαρκείς ασφαλιστικές δικλείδες για την ιδιωτικότητα και την ασφάλεια, ο μέσος επαγγελματίας ασφάλειας κινείται προς έναν ρόλο εποπτείας αντί να αναζητά ο ίδιος ευπάθειες. Η καινοτομία στην τεχνητή νοημοσύνη ξεπερνά την ικανότητά μας να την θωρακίσουμε Η αγορά της τεχνητής νοημοσύνης είναι ένα χάος. Φιλόδοξες νεοφυείς επιχειρήσεις ξεπηδούν κάθε μέρα, και νέα τεχνολογία τεχνητής νοημοσύνης εμφανίζεται πριν προλάβει κανείς να καταλάβει τι υπάρχει ήδη εκεί έξω. Μέχρι να προταθεί μια λύση ασφάλειας για ένα δημοφιλές μοντέλο τεχνητής νοημοσύνης, αυτό έχει ήδη αντικατασταθεί ή έχει καταστεί παρωχημένο από μια νέα, λαμπερή εξέλιξη. Ένα θέμα στο φετινό RSAC ήταν οι ασφαλιστικές δικλείδες της τεχνητής νοημοσύνης. Καθώς οι AI agents αποκτούν πρόσβαση σε ευαίσθητα δεδομένα και συστήματα, εμπειρογνώμονες σε πολλαπλές συζητήσεις ανέφεραν ότι απαιτούνται προστατευτικά μέτρα για τον περιορισμό της πρόσβασής τους όσον αφορά το χρόνο, την εξουσία και το εύρος. Από απλές παραλείψεις έως καινοτόμες επιθέσεις prompt injection, δεν μπορεί να προβλεφθεί ποια θα είναι η επόμενη ευπάθεια zero-day, ειδικά στη νέα agentic πραγματικότητα που έχει διαμορφωθεί στις μέρες μας. «Ο όγκος του κώδικα, ο όγκος των αιτημάτων επικύρωσης που εισέρχονται, θα κατακλύσει τον άνθρωπο που βρίσκεται στο κύκλωμα. Και σας λέω ότι προχωράμε προς κάτι που ονομάζουμε “ο άνθρωπος στο τιμόνι”», σημείωσε ο Ashley. Αυτή η έννοια τοποθετεί τους ανθρώπους σε συμβουλευτικό ρόλο, παρέχοντας δομημένα προστατευτικά μέτρα για τα agentic συστήματα τεχνητής νοημοσύνης. Με απλά λόγια, οι επαγγελματίες της ασφάλειας θα είναι υπεύθυνοι για το διαχωρισμό των αποτελεσμάτων των ευρημάτων της τεχνητής νοημοσύνης. Ωστόσο, τα ευρήματα θα είναι συντριπτικά. Ο Shimel το τόνισε αυτό, δηλώνοντας ότι, «Ως άνθρωποι, κινούμαστε με εκατοντάδες επαναλήψεις ανά λεπτό. Η τεχνητή νοημοσύνη κινείται σε βαθμό χιλιάδων». Ουσιαστικά, ο επαγγελματίας της ασφάλειας θα πρέπει να αξιοποιήσει άλλους agents τεχνητής νοημοσύνης για να προστατεύσει τους ενεργούς agents τεχνητής νοημοσύνης. Η ιδέα είναι αρκετά περίπλοκη ώστε να σας ζαλίσει, αλλά ο Ashley και ο Shimel υποστήριξαν ότι είναι ένα αναπόφευκτο μέλλον για το οποίο τα τρέχοντα συστήματα δεν είναι επαρκώς προετοιμασμένα να το χειριστούν. Ο αέναος κύκλος ασφάλειας της τεχνητής νοημοσύνης: Μηχανές που ελέγχουν μηχανές Πώς μπορεί να επαληθευτεί η ακρίβεια ενός ελεγκτή τεχνητής νοημοσύνης χωρίς να δημιουργηθεί ακόμη ένας άλλος ελεγκτής τεχνητής νοημοσύνης για να ελέγξει τον ελεγκτή και ούτω καθεξής; Αυτή η μέθοδος δεν χτυπά το πρόβλημα στη ρίζα του, και η αξιοπιστία αυτών των μοντέλων ελέγχου τεχνητής νοημοσύνης δεν έχει ακόμα καθοριστεί. «Δεν έχουμε αρκετούς ανθρώπους για να κάνουμε όλη τη δουλειά», είπε ο Shimel, υιοθετώντας μια ρεαλιστική προσέγγιση στο πρόβλημα της αναδρομικότητας. Αυτός και ο Ashley προτείνουν μια προσέγγιση πολλαπλών μοντέλων. Η agentic ασφάλεια θα πρέπει να είναι πολυεπίπεδη, καθώς ένα εργαλείο που επαληθεύει ένα άλλο θα παραλείπει αναπόφευκτα πράγματα. Όπως μια ομάδα ασφάλειας με ανθρώπινο δυναμικό διαθέτει πολλά επίπεδα ελέγχων, έτσι και τα agentic συστήματα θα πρέπει να είναι πολυεπίπεδα για να ρυθμίζονται μόνα τους. Μίλησα με τον Shimel μετά την παρουσίαση και τον ρώτησα αν πιστεύει ότι αυτά τα αυτορυθμιζόμενα συστήματα είναι επικείμενα ή αποτελούν περισσότερο μια γενική ιδέα. Αν και είπε ότι η ευρεία υιοθέτησή τους απέχει ακόμη, ο Shimel πιστεύει ότι αυτή η τεχνολογία υπάρχει και δοκιμάζεται. Αναγνώρισε ότι «η αναδρομή είναι ένα πολύπλοκο ζήτημα και ότι είναι ένα πρόβλημα που θα πρέπει να αντιμετωπιστεί αντί να αποφευχθεί λόγω της αναπόφευκτης φύσης του», συνέχισε, σημειώνοντας ότι η υιοθέτηση θα συνοδεύεται από το μερίδιο των περιστατικών που της αναλογεί. Γιατί τα συστήματα τεχνητής νοημοσύνης είναι τόσο δύσκολο να ασφαλιστούν Τα παραδοσιακά συστήματα μπορούν να επιθεωρηθούν. Πάρτε για παράδειγμα έναν έλεγχο VPN. Μια τρίτη εταιρεία μπορεί να εξετάσει τις εσωτερικές διαδικασίες και να αξιολογήσει τις πολιτικές απορρήτου για να διασφαλίσει τη συμμόρφωση. Οι παραδοσιακοί έλεγχοι ασφάλειας δεν λειτουργούν καλά για συστήματα που βασίζονται στην τεχνητή νοημοσύνη, επειδή οι λειτουργίες στον πυρήνα της υπηρεσίας βρίσκονται σε αυτό που ονομάζεται «μαύρο κουτί» — που σημαίνει ότι μπορείτε να δείτε τα δεδομένα που έχουν εισαχθεί (μια προτροπή) και την έξοδο (δημιουργία), αλλά όχι την εσωτερική λογική και τις διαδικασίες που παράγουν το αποτέλεσμα. Είναι σαν να ρωτάμε έναν άνθρωπο γιατί πήρε μια συγκεκριμένη απόφαση. Μπορεί να υποδείξει το ερέθισμα και την επακόλουθη ενέργεια, αλλά δεν μπορούμε να κοιτάξουμε μέσα στο μυαλό μας όταν λαμβάνεται μια απόφαση και να δούμε την ακριβή πορεία που ακολούθησε μια σκέψη. Η παρακολούθηση των agents πρακτόρων θέτει ένα παρόμοιο πρόβλημα, καθώς δεν μπορούμε να ανατρέξουμε σε κάθε βήμα της διαδικασίας λήψης αποφάσεων για να βρούμε το «γιατί». Μπορεί ακόμα να θωρακιστεί η τεχνητή νοημοσύνη – ή είναι πολύ αργά; Οι Ashley και Shimel πρότειναν ότι απαιτούνται βασικά μέτρα προστασίας για τη διασφάλιση αυτών των συστημάτων, με τον Shimel να δηλώνει ότι «η ασφάλεια πρέπει να είναι ενσωματωμένη, όχι προσθαφαιρούμενη… δεν είναι αυτό το όνειρο κάθε επαγγελματία ασφάλειας;» Η πορεία προς την ασφάλεια της τεχνητής νοημοσύνης μπορεί να είναι αβέβαιη, αλλά μπορείτε να λάβετε ουσιαστικά μέτρα για να διασφαλίσετε την παρουσία σας στο διαδίκτυο τώρα. Ένα VPN μπορεί να αποτρέψει τρίτους, όπως τον πάροχο υπηρεσιών διαδικτύου σας, από τη συλλογή των δεδομένων σας. Ένα antivirus θα αποτρέψει μη εξουσιοδοτημένες εφαρμογές και κακόβουλο λογισμικό από το να θέσουν σε κίνδυνο το σύστημά σας. Μπορείτε επίσης να συνδυάσετε αυτά τα δύο εργαλεία με έναν διαχειριστή κωδικών πρόσβασης για να προστατεύσετε περαιτέρω τους διαδικτυακούς λογαριασμούς σας από παραβιάσεις δεδομένων.
