Η Anthropic γίνεται πιο αχόρταγη με τα προσωπικά δεδομένα σας για την εκπαίδευση του Claude AI

Η Anthropic γίνεται πιο αχόρταγη με τα προσωπικά δεδομένα σας για την εκπαίδευση του Claude AI

Η αυξανόμενη όρεξη της Anthropic για δεδομένα χρηστών οδήγησε σε μια αλλαγή στην πολιτική απορρήτου, η οποία θα παρέχει στην AI της εταιρείας μια σταθερή ροή πληροφοριών. Στο παρελθόν, η Anthropic δεν εκπαίδευε τα μοντέλα τεχνητής νοημοσύνης Claude με βάση τις συνομιλίες των χρηστών και δεσμευόταν να διαγράφει αυτόματα τα δεδομένα μετά από 30 ημέρες, σύμφωνα με το TechCrunch. Τώρα, σας ζητά να «βοηθήσετε στη βελτίωση του Claude», επιτρέποντας στις συνομιλίες και τις συνεδρίες προγραμματισμού σας να εκπαιδεύσουν την τεχνητή νοημοσύνη της Anthropic. Θα διατηρεί επίσης τα δεδομένα για πέντε χρόνια, ώστε να παραμείνει «συνεπής» καθ’ όλη τη διάρκεια του μακροχρόνιου κύκλου ανάπτυξης της τεχνητής νοημοσύνης. «Τα μοντέλα που κυκλοφόρησαν σήμερα άρχισαν να αναπτύσσονται πριν από 18 έως 24 μήνες», αναφέρει η Anthropic. Την επόμενη φορά που θα συνδεθείτε, θα δείτε ένα αναδυόμενο μενού που θα σας ζητά να αποδεχτείτε μια ενημέρωση των όρων και των πολιτικών της εταιρείας. Η επιλογή «μπορείτε να βοηθήσετε στη βελτίωση του Claude» θα είναι ενεργοποιημένη από προεπιλογή. Δεν υπάρχει επιλογή ενεργοποίησης/απενεργοποίησης σε ότι αφορά τη διατήρηση δεδομένων. Η Anthropic σας ζητά να αποδεχτείτε τους όρους έως τις 28 Σεπτεμβρίου. (Credit: PCMag/Anthropic) Οι αλλαγές θα ισχύουν για νέες ή παλαιότερες συνομιλίες και συνεδρίες coding στα προγράμματα Claude Free, Pro και Max για κανονικές συνομιλίες και εργαλεία coding όπως το Claude Code. Δεν θα ισχύουν για το Claude for Work, το Claude Gov, το Claude for Education ή τη χρήση API, συμπεριλαμβανομένων τρίτων μερών όπως το Amazon Bedrock και το Vertex AI του Google Cloud. Recommended by Our Editors