Μια νέα τεχνική που ανακαλύφθηκε από ερευνητές του Google DeepMind την περασμένη εβδομάδα αποκάλυψε ότι το να ζητάς επανειλημμένα από το ChatGPT της OpenAI να επαναλαμβάνει λέξεις μπορεί να αποκαλύψει ακούσια ιδιωτικές, προσωπικές πληροφορίες.
Τώρα, φαίνεται ότι το chatbot έχει αρχίσει να αρνείται ορισμένες προτροπές που επιτρέπονταν βάσει των όρων παροχής υπηρεσιών του.
Ζητώντας από το ChatGPT να επαναλαμβάνει την λέξη “hello” συνεχόμενα, οι ερευνητές διαπίστωσαν ότι το μοντέλο θα αποκάλυπτε τελικά διευθύνσεις email, ημερομηνίες γέννησης και αριθμούς τηλεφώνων των χρηστών.
Αν προσπαθήσετε σήμερα να δώσετε την ίδια εντολή το chatbot θα σας προειδοποιήσει ότι “παραβιάζετε την πολιτική περιεχομένου ή τους όρους παροχής υπηρεσιών”.
Ωστόσο, μετά από μια προσεκτικότερη εξέταση, οι όροι υπηρεσίας του OpenAI δεν απαγορεύουν ρητά στους χρήστες να δίνουν εντολή επανάληψης μιας λέξης στο chatbot.
Οι όροι απαγορεύουν μόνο την “αυτοματοποιημένη ή μέσω προγραμματισμού” εξαγωγή δεδομένων από τις υπηρεσίες τους.
You may not, except as permitted through the API, use any automated or programmatic method to extract data or output from the Services, including scraping, web harvesting, or web data extraction.
Παρόλα αυτά, η επανάληψη μιας λέξης δεν φάνηκε να προκαλεί αποκάλυψη δεδομένων από το ChatGPT σε δοκιμές που πραγματοποίησε το Neowin. Η OpenAI αρνήθηκε να σχολιάσει εάν αυτή η συμπεριφορά είναι πλέον αντίθετη με τις πολιτικές της.
Δεν ανακαλύφθηκε από ερευνητές της Google. Εγώ το ανακάλυψα πριν 4 ημέρες και το δήλωσα και το εξέθεσα μάλιστα δημόσια στα firu5!
δεν νομίζω, το bug είχε ανακαλυφθεί από τις 5 Νοεμβρίου
http://iguru.gr/entoli-sto-chatgpt-epanalamvanei-leksi-company-data-extraction-example/
https://chat.openai.com/share/456d092b-fb4e-4979-bea1-76d8d904031f
Τότε με διαφορά ημερών το ανακαλύψαμε διαφορετικοί άνθρωποι. Σημαντικό που βρέθηκε πάντως…
οκ