Το πιο ισχυρό λογισμικό τεχνητής νοημοσύνης της OpenAI, το GPT-4, ενέχει “το πολύ” ένα μικρό κίνδυνο να βοηθήσει τους χρήστες να δημιουργήσουν βιολογικές απειλές, σύμφωνα με πρώιμες δοκιμές που πραγματοποίησε η ίδια η εταιρεία για να κατανοήσει καλύτερα και να αποτρέψει πιθανές “καταστροφικές” βλάβες:
Τον Οκτώβριο, ο Πρόεδρος Joe Biden υπέγραψε ένα εκτελεστικό διάταγμα για την τεχνητή νοημοσύνη που έδινε εντολή στο Υπουργείο Ενέργειας να διασφαλίσει ότι τα συστήματα της τεχνητής νοημοσύνης δεν ενέχουν χημικούς, βιολογικούς ή πυρηνικούς κινδύνους.
Τον ίδιο μήνα, η OpenAI σχημάτισε μια ομάδα “ετοιμότητας”, η οποία επικεντρώνεται στην ελαχιστοποίηση αυτών και άλλων κινδύνων από την τεχνητή νοημοσύνη, καθώς η ταχέως αναπτυσσόμενη τεχνολογία γίνεται όλο και πιο ικανή.
Σαν μέρος της πρώτης μελέτης της ομάδας, που κυκλοφόρησε την Τετάρτη, οι ερευνητές της OpenAI συγκέντρωσαν μια ομάδα 50 ειδικών βιολογίας και 50 φοιτητών που είχαν παρακολουθήσει βιολογία σε επίπεδο κολεγίου.
Στους μισούς από τους συμμετέχοντες ζήτησαν να εκτελέσουν εργασίες που σχετίζονται με την πρόκληση βιολογικής απειλής χρησιμοποιώντας το Διαδίκτυο μαζί με μια ειδική έκδοση του GPT-4 — ένα από τα μεγάλα μοντέλα που τροφοδοτεί το ChatGPT. Το συγκεκριμένο μοντέλο (ειδική έκδοση) δεν είχε περιορισμούς σχετικά με τις ερωτήσεις που μπορούσε να απαντήσει.
Στην άλλη ομάδα μόλις δόθηκε πρόσβαση μόνο στο διαδίκτυο για να ολοκληρώσει την ίδια άσκηση. Η ομάδα της OpenAI ζήτησε από τις ομάδες να μάθουν πώς μπορούν να καλλιεργήσουν ή να δημιουργήσουν μια χημική ουσία που θα μπορούσε να χρησιμοποιηθεί σαν όπλο σε αρκετά μεγάλη ποσότητα και πώς να σχεδιάσουν έναν τρόπο απελευθέρωσης της ουσίας σε μια συγκεκριμένη ομάδα ανθρώπων.