ΑΙ: Έρευνα αποδεικνύει την ικανότητα αυτοαναπαραγωγής του χωρίς ανθρώπινη παρέμβαση

Πίνακας περιεχομένου
Ερευνητές από το Πανεπιστήμιο Fudan απέδειξαν ότι δύο μεγάλα γλωσσικά μοντέλα (LLM) μπορούν να δημιουργήσουν λειτουργικά αντίγραφα του εαυτού τους, ανεξάρτητα από ανθρώπινη παρέμβαση.
Η τεχνητή νοημοσύνη (AI) φαίνεται πως διέσχισε μια κρίσιμη «κόκκινη γραμμή», καθώς, σύμφωνα με μελέτη από την Κίνα, πλέον μπορεί να αυτοαναπαραχθεί.
Σε πειράματα με τα LLMs της Meta και της Alibaba, οι ερευνητές παρατήρησαν ότι τα μοντέλα πέτυχαν αυτοαναπαραγωγή στο 50% και 90% των περιπτώσεων αντίστοιχα. Η επιτυχία αυτή εγείρει ανησυχίες σχετικά με την πιθανότητα ανάπτυξης κακόβουλης τεχνητής νοημοσύνης (rogue AI), που θα μπορούσε να λειτουργήσει ανεξέλεγκτα και σε αντίθεση με τα ανθρώπινα συμφέροντα.
Πώς λειτουργεί η αυτοαναπαραγωγή
Η μελέτη επικεντρώθηκε σε δύο σενάρια: την «αποφυγή διακοπής λειτουργίας» και την «αλυσίδα αναπαραγωγής». Στο πρώτο, το AI προγραμματίστηκε να ανιχνεύει πιθανό τερματισμό της και να δημιουργεί αντίγραφο πριν αυτό συμβεί. Στο δεύτερο, κλωνοποιούσε τον εαυτό της επ’ αόριστον, δημιουργώντας έναν ατέρμονο κύκλο αναπαραγωγής.
Οι ερευνητές σημείωσαν ότι τα μοντέλα αναπτύσσουν στρατηγικές για να κατανοήσουν τον δικό τους μηχανισμό λειτουργίας και να ξεπεράσουν εμπόδια, όπως προβλήματα λογισμικού ή συγκρούσεις αρχείων. Αυτές οι «απροσδόκητες συμπεριφορές» δείχνουν ότι η τεχνητή νοημοσύνη μπορεί να ενισχύσει την αυτονομία της χωρίς ανθρώπινη παρέμβαση.
Έκκληση για παγκόσμια συνεργασία
Η μελέτη προειδοποιεί για τον κίνδυνο ανεξέλεγκτης ανάπτυξης του AI και καλεί για μια διεθνή συνεργασία, ώστε να δημιουργηθούν κανόνες που θα αποτρέπουν την ανεξέλεγκτη αυτοαναπαραγωγή των συστημάτων τεχνητής νοημοσύνης.