Τεχνολογία

Η OpenAI δίνει προτεραιότητα στα “λαμπερά προϊόντα” έναντι της ασφάλειας της AI, ισχυρίζεται πρώην ερευνητής της

Ένας ερευνητής που μόλις παραιτήθηκε από την εταιρεία ανάπτυξης του ChatGPT, OpenAI, κατηγορεί την εταιρεία ότι δεν αφιερώνει αρκετούς πόρους για να διασφαλίσει ότι η τεχνητή νοημοσύνη μπορεί να ελεγχθεί με ασφάλεια.

“Αυτά τα προβλήματα είναι αρκετά δύσκολο να επιλυθούν και ανησυχώ ότι δεν είμαστε σε τροχιά για να φτάσουμε εκεί”, υποστήριξε ο πρώην ερευνητής της OpenAI, Jan Leike, σε ένα tweet την Παρασκευή.

Πριν από ένα χρόνο, η OpenAI διόρισε τον Leike και τον συνάδελφό του, τον διάσημο ερευνητή AI Ilya Sutskever, για να συν-ηγηθούν μιας ομάδας που επικεντρώθηκε στη

Διαβάστε ολόκληρο το άρθρο στο PCMag

Περισσότερα

Αυτός ο Ιστότοπος χρησιμοποιεί Μπισκότα (Cookies)

Τα Cookies είναι αρχεία τα οποία αποθηκεύονται στον υπολογιστή σας και μας βοηθάνε να σας εξυπηρετούμε καλύτερα με βάση τις προσωπικές σας προτιμήσεις.Τα Cookies μας είναι απόλυτα ασφαλή.

Καθώς και Cookies προερχόμενα απο τρίτες σελίδες, όπως Google Analytics, Facebook και Twitter, για ανάλυση των προτιμήσεων σας στο περιεχομένο της Ιστοσελίδας μας και για τα Comments σας, για να σας παρέχουμε περισσότερο και καλύτερο υλικο.

ΠΟΛΙΤΙΚΗ ΑΠΟΡΡΗΤΟΥ

x