Ερευνητές δημιούργησαν σκουλήκι υπολογιστή που εξαπλώνεται μόνο του

Ερευνητές στον τομέα της κυβερνοασφάλειας δημιούργησαν ένα σκουλήκι υπολογιστή (computer worm) το οποίο μπορεί να εξαπλωθεί μόνο του, να διεισδύσει στα μηνύματα ηλεκτρονικού ταχυδρομείου και να εξαπλώσει κακόβουλο λογισμικό ή να υποκλέψει δεδομένα χρησιμοποιώντας τεχνητή νοημοσύνη.

Το σκουλήκι που ονομάστηκε Morris II, από το όνομα του πρώτου σκουληκιού υπολογιστή που προκάλεσε χάος στο διαδίκτυο το 1988, δημιουργήθηκε από μια διεθνή ερευνητική ομάδα από τις ΗΠΑ και το Ισραήλ σε μια προσπάθεια να αναδείξει τους κινδύνους που σχετίζονται με τη γενετική τεχνητή νοημοσύνη (GenAI). Το σκουλήκι έχει σχεδιαστεί για να στοχεύει εφαρμογές που χρησιμοποιούν δημοφιλή εργαλεία όπως το ChatGPT της OpenAI και το Gemini της Google.

Το σκουλήκι μπορεί να στοχεύσει λογισμικά διαχείρισης e-mails με λειτουργίες τεχνητής νοημοσύνης προκειμένου να αποσπάσει ευαίσθητες πληροφορίες και να στείλει spam μυνήματα για να μολύνει και άλλα συστήματα. Οι ερευνητές προειδοποίησαν ότι πρόκειται για μια νέα γενιά «κακόβουλου λογισμικού μηδενικού κλικ» όπου το θύμα δεν χρειάζεται να κάνει κλικ για να ενεργοποιήσει την κακόβουλη δραστηριότητα ή να τη διαδώσει.

«Αυτό ουσιαστικά σημαίνει ότι τώρα έχετε τη δυνατότητα να διεξάγετε ή να εκτελέσετε ένα νέο είδος κυβερνοεπίθεσης που δεν έχει παρατηρηθεί στο παρελθόν», δήλωσε ο Μπεν Νάσι, ερευνητής στο Πανεπιστήμιο του Κορνέλ που βρίσκεται πίσω από την έρευνα.

Στο πείραμά τους, το οποίο διεξήχθη σε ελεγχόμενο περιβάλλον, οι ερευνητές στόχευσαν βοηθούς τεχνητής νοημοσύνης που αξιοποιούν το ChatGPT, το Gemini και ένα μεγάλο γλωσσικό μοντέλο ανοιχτού κώδικα που ονομάζεται LLaVA. Για να δημιουργήσουν το σκουλήκι, οι ερευνητές χρησιμοποίησαν ένα είδος προτροπής που ονομάζεται «adversarial self-replicating prompt», η οποία ενεργοποιεί το γενετικό μοντέλο τεχνητής νοημοσύνης να παράγει ως απάντηση μια άλλη προτροπή. Εν ολίγοις, το σύστημα καλείται να παράγει ένα σύνολο περαιτέρω οδηγιών στις απαντήσεις του.

Αν και παραβίασαν ορισμένα μέτρα ασφαλείας των ChatGPT και Gemini, οι ερευνητές δήλωσαν στο περιοδικό WIRED ότι η μελέτη τους αναδεικνύει τον κακό αρχιτεκτονικό σχεδιασμό του ευρύτερου οικοσύστηματος της τεχνητής νοημοσύνης. Εκτιμούν δε, πως μέσα στα επόμενα δυο με τρία χρόνια θα δούμε κυβερνοεπιθέσεις με σκουλήκια γενετικής τεχνητής νοημοσύνης.

Μπορείτε να διαβάσετε εδώ την επιστημονική έρευνα.

ΠΗΓΗ: Independent, WIRED