Εργαζόμενοι του OpenAI προειδοποιούν για σοβαρούς κινδύνους τεχνητής νοημοσύνης
Οι εργαζόμενοι της startup τεχνητής νοημοσύνης θέλουν προστασία για να μιλήσουν για τους «σοβαρούς κινδύνους» του προϊόντος.
Οι νυν και πρώην υπάλληλοι του OpenAI και της Google DeepMind λένε ότι «οι ευρείες συμφωνίες εμπιστευτικότητας τους εμποδίζουν να εκφράσουν τις ανησυχίες τους» σχετικά με τους «σοβαρούς κινδύνους» των τεχνολογιών που δημιουργούν αυτές και άλλες εταιρείες, γράφει σχετικά το Bloomberg.
«Μέχρι που αυτές οι εταιρείες να έχουν αποτελεσματική κυβερνητική εποπτεία, οι νυν και πρώην υπάλληλοι είναι από τους λίγους ανθρώπους που μπορούν να τους ζητήσουν να λογοδοτήσουν στο κοινό», αναφέρεται στη δημόσια επιστολή, την οποία υπέγραψαν 13 άτομα που εργάζονταν στην εταιρεία, επτά από τα οποία ανέφεραν τα ονόματά τους.
Σημειώνεται ότι το OpenAI αντιμετώπισε πρόσφατα διαμάχες σχετικά με την προσέγγισή του για την προστασία της τεχνητής νοημοσύνης μετά τη διάλυση μιας από τις πιο ανώτερες ομάδες ασφαλείας και μια σειρά απολύσεων εργαζομένων. Αναγκάστηκαν να υπογράψουν μια συμφωνία, η οποία, ουσιαστικά, δεν τους επιτρέπει να αντιταχθούν στην AI-startup.
«Οι ευρείες συμφωνίες εμπιστευτικότητας μας εμποδίζουν να εκφράσουμε τις ανησυχίες μας εκτός από τις ίδιες τις εταιρείες που μπορεί να μην αντιμετωπίζουν αυτές τις ανησυχίες», ανέφερε.
Μια ομάδα νυν και πρώην υπαλλήλων της OpenAI και της Google DeepMind ζητούν προστασία από αντίποινα επειδή μοιράζονται τις ανησυχίες τους σχετικά με τους «σοβαρούς κινδύνους» των τεχνολογιών που δημιουργούν αυτές και άλλες εταιρείες.
Συγκεκριμένα, ο Leopold Aschenbrenner, πρώην μηχανικός του OpenAI, έγραψε ένα έγγραφο 165 σελίδων όπου ισχυρίζεται ότι μέχρι το 2027 θα επιτύχουμε AGI (ανθρώπινη τεχνητή νοημοσύνη). Πιστεύει επίσης ότι αυτή η AGI θα μπορέσει να αναπτυχθεί στο επίπεδο του ASI (AI ανώτερο από τον άνθρωπο) με πολύ γρήγορους ρυθμούς.
Νωρίτερα η ΕΟΔ έγραψε ότι η Ρωμαιοκαθολική Εκκλησίας ξεκίνησε μια εφαρμογή βασισμένη σε AI για απαντήσεις σχετικά με την πίστη – «Πατήρ Ιουστινιανός».