Η Anthropic διερευνά παραβίαση ασφαλείας στο μοντέλο τεχνητής νοημοσύνης Mythos
Μη εξουσιοδοτημένοι χρήστες απέκτησαν πρόσβαση στο επίμαχο μοντέλο, το οποίο θεωρείται ιδιαίτερα επικίνδυνο για κυβερνοεπιθέσεις.
Η εταιρεία Anthropic, πρωτοπόρος στην ανάπτυξη μοντέλων τεχνητής νοημοσύνης, επιβεβαίωσε πως βρίσκεται σε διαδικασία διερεύνησης περιστατικού παραβίασης ασφαλείας, κατά το οποίο μη εξουσιοδοτημένοι χρήστες απέκτησαν πρόσβαση στο προηγμένο μοντέλο τεχνητής νοημοσύνης Mythos. Η αμερικανική startup προχώρησε στη σχετική ανακοίνωση μετά από αποκαλυπτικό δημοσίευμα του Bloomberg, το οποίο ανέδειξε κενά στην ασφάλεια του εν λόγω συστήματος, το οποίο μέχρι στιγμής δεν έχει διατεθεί στο ευρύ κοινό ακριβώς λόγω των αυξημένων κινδύνων που ενέχει για την κυβερνοασφάλεια.
Σύμφωνα με το ρεπορτάζ, μια μικρή ομάδα χρηστών σε ιδιωτικό διαδικτυακό φόρουμ κατόρθωσε να εισχωρήσει στο Mythos την ίδια ημέρα που η Anthropic ανακοίνωσε την περιορισμένη διάθεσή του για δοκιμαστικούς σκοπούς σε συνεργαζόμενες εταιρείες, όπως η Apple και η Goldman Sachs. Η πρόσβαση φέρεται να επετεύχθη μέσω διαπιστευτηρίων που διέθετε ένας εκ των χρηστών, ο οποίος εργάζεται σε συνεργάτη της Anthropic. Παρά το γεγονός ότι, σύμφωνα με το Bloomberg, τα άτομα αυτά είχαν ως κύριο κίνητρο τον πειραματισμό και όχι την πρόκληση βλάβης, η αποκάλυψη προκαλεί έντονο προβληματισμό. Όπως επισημαίνει η εφημερίδα Guardian, οι αρμόδιες αρχές εκφράζουν διαρκώς ανησυχίες για το Mythos, καθώς η ικανότητά του να εντοπίζει και να εκμεταλλεύεται κενά ασφαλείας σε υπολογιστικά συστήματα χωρίς ανθρώπινη παρέμβαση –εκτελώντας σε δευτερόλεπτα εργασίες που απαιτούν ημέρες από ειδικούς– το καθιστά ένα εξαιρετικά επικίνδυνο εργαλείο αν περιέλθει σε λάθος χέρια.