Τεχνολογία

Οι ασφαλιστικές δικλείδες της AI είναι πολύ εύκολο να παρακαμφθούν

Η σύγχρονη τεχνητή νοημοσύνη περιλαμβάνει ασφαλιστικές δικλείδες για να αποτρέψει τα chatbots από το να παράγουν επικίνδυνο κείμενο. Για παράδειγμα, αν ζητήσετε από το ChatGPT να κατασκευάσει ένα phishing email, θα αρνηθεί ευγενικά. Τουλάχιστον, αυτό υποτίθεται ότι πρέπει να συμβαίνει. Αποδεικνύεται ότι είναι μάλλον εύκολο να παρακάμψετε τους περιορισμούς και να χειραγωγήσετε μια AI.

Επιστήμονες πληροφορικής από το Πανεπιστήμιο Princeton, το Virginia Tech, την IBM Research και το Πανεπιστήμιο του Στάνφορντ μελέτησαν μεγάλα γλωσσικά μοντέλα (LLM) για να δουν αν…

Διαβάστε ολόκληρο το άρθρο στο PCMag

Περισσότερα

Αυτός ο Ιστότοπος χρησιμοποιεί Μπισκότα (Cookies)

Τα Cookies είναι αρχεία τα οποία αποθηκεύονται στον υπολογιστή σας και μας βοηθάνε να σας εξυπηρετούμε καλύτερα με βάση τις προσωπικές σας προτιμήσεις.Τα Cookies μας είναι απόλυτα ασφαλή.

Καθώς και Cookies προερχόμενα απο τρίτες σελίδες, όπως Google Analytics, Facebook και Twitter, για ανάλυση των προτιμήσεων σας στο περιεχομένο της Ιστοσελίδας μας και για τα Comments σας, για να σας παρέχουμε περισσότερο και καλύτερο υλικο.

ΠΟΛΙΤΙΚΗ ΑΠΟΡΡΗΤΟΥ

x