Η Microsoft παραδέχτηκε ότι ένα σφάλμα προγραμματισμού επέτρεψε κατά λάθος στο Copilot Chat να έχει πρόσβαση και να συνοψίζει εμπιστευτικά μηνύματα ηλεκτρονικού ταχυδρομείου. Όπως αναφέρει το Bleeping Computer, το σφάλμα παρακάμπτει τις πολιτικές πρόληψης απώλειας δεδομένων (DLP) που έχουν ενεργοποιήσει οι πελάτες που επιθυμούν να προστατεύσουν τα δεδομένα τους από την τεχνητή νοημοσύνη της Microsoft. Το πρόβλημα, που αναφέρθηκε για πρώτη φορά στις 21 Ιανουαρίου, επηρεάζει την καρτέλα «Εργασία» του Copilot Chat, μια λειτουργία που άρχισε να διατίθεται στους επιχειρηματικούς χρήστες του Microsoft 365 μέσω των Word, Excel, PowerPoint, Outlook και OneNote τον Σεπτέμβριο. Η Microsoft «φρενάρει» το Copilot: Σχέδια για περιορισμό της AI στα Windows 11 Windows 11: Πώς να απεγκαταστήσετε οριστικά το Microsoft Copilot (υπό προϋποθέσεις) Οι χρήστες μπορούν να επισημάνουν τα αρχεία και τα email τους ως ευαίσθητα ή να αφήσουν το Microsoft 365 να το κάνει αυτόματα. Μόλις εφαρμοστεί η ετικέτα, η Microsoft υποτίθεται ότι διατηρεί τα δεδομένα «συμβατά με τις πολιτικές προστασίας πληροφοριών του οργανισμού σας». Μια επιδιόρθωση για το τρέχον πρόβλημα άρχισε να κυκλοφορεί νωρίτερα αυτό το μήνα, αν και η εταιρεία δεν έχει διευκρινίσει πότε θα επιλυθεί πλήρως. Εξακολουθεί να παρακολουθεί την επιδιόρθωση και να επικοινωνεί με τους επηρεαζόμενους χρήστες για να ελέγξει αν λειτουργεί. Ο αριθμός των οργανισμών που επηρεάζονται από το σφάλμα δεν είναι σαφής, αλλά φαίνεται ότι η Εθνική Υπηρεσία Υγείας του Ηνωμένου Βασιλείου (NHS) είναι μεταξύ αυτών. Η ενσωμάτωση των λειτουργιών τεχνητής νοημοσύνης στα προϊόντα της Microsoft δεν ήταν καθόλου ομαλή. Λειτουργίες όπως το Windows Recall και το Copilot Vision έχουν εγείρει ανησυχίες σχετικά με την προστασία της ιδιωτικής ζωής, και η εταιρεία φέρεται επίσης να σχεδιάζει να περιορίσει το Copilot σε όλες τις εφαρμογές του Windows 11.
