web analytics

Anthropic vs ΗΠΑ…

Anthropic vs ΗΠΑ: Χωρίς «kill switch» η Τεχνητή Νοημοσύνη σε απόρρητα προγράμματα.

AI χωρίς «διακόπτη απενεργοποίησης». Σύγκρουση Anthropic με Πεντάγωνο για τον έλεγχο της Τεχνητής Νοημοσύνης. Τι αποκαλύφθηκε.

Σε μια αποκάλυψη με σοβαρές προεκτάσεις για την ασφάλεια και τη χρήση της τεχνητής νοημοσύνης, η Anthropic δηλώνει πως δεν διαθέτει κανέναν μηχανισμό ελέγχου ή απενεργοποίησης («kill switch») για τα μοντέλα της, όταν αυτά αξιοποιούνται από το Πεντάγωνο. Η θέση αυτή κατατέθηκε σε ομοσπονδιακό εφετείο στην Ουάσιγκτον, εντείνοντας τη διαμάχη ανάμεσα στις δύο πλευρές.

Η υπόθεση αποκτά ιδιαίτερη βαρύτητα, καθώς το Πεντάγωνο έχει ήδη χαρακτηρίσει την Anthropic ως πιθανό κίνδυνο για την εφοδιαστική αλυσίδα, κατηγορώντας την ότι παρεμβαίνει ακατάλληλα στον τρόπο αξιοποίησης της τεχνολογίας της σε ευαίσθητες στρατιωτικές επιχειρήσεις.

Anthropic: «Καμία δυνατότητα παρέμβασης μετά την ανάπτυξη»

Στην κατάθεσή της, η εταιρεία ξεκαθαρίζει ότι δεν έχει ούτε ορατότητα ούτε τεχνική δυνατότητα να ελέγξει ή να επηρεάσει τα συστήματα τεχνητής νοημοσύνης μετά την ανάπτυξή τους. Με άλλα λόγια, απορρίπτει κατηγορηματικά το ενδεχόμενο να μπορεί να παρακολουθεί ή να παρεμβαίνει στη χρήση τους σε πραγματικές συνθήκες.

Παράλληλα, επισημαίνει ότι το Πεντάγωνο έχει τη δυνατότητα να αξιολογεί και να δοκιμάζει τα μοντέλα πριν από την επιχειρησιακή τους αξιοποίηση, μεταθέτοντας έτσι την ευθύνη χρήσης στον τελικό φορέα.

Στο επίκεντρο το Claude και οι περιορισμοί χρήσης της Anthropic

Κομβικό σημείο της αντιπαράθεσης αποτελεί το Claude, το σύστημα AI της εταιρείας. Οι πολιτικές της Anthropic απαγορεύουν ρητά τη χρήση του για αυτόνομα οπλικά συστήματα ή μαζική επιτήρηση. Ωστόσο, το Πεντάγωνο θεωρεί αυτές τις δεσμεύσεις παραπλανητικές, γεγονός που οδήγησε σε περαιτέρω κλιμάκωση της έντασης.

Σε νομικό επίπεδο, η υπόθεση εξελίσσεται με αντικρουόμενες αποφάσεις. Δικαστήριο στην Ουάσιγκτον απέρριψε το αίτημα της Anthropic για προσωρινή αναστολή του χαρακτηρισμού της ως «ρίσκου». Αντίθετα, σε παράλληλη υπόθεση στην Καλιφόρνια, δικαστής έκανε δεκτό αντίστοιχο αίτημα της εταιρείας.

Η εξέλιξη αυτή δημιουργεί ένα σύνθετο τοπίο: η Anthropic δεν μπορεί προς το παρόν να συμμετέχει σε νέα συμβόλαια με το Πεντάγωνο, ωστόσο διατηρεί τη δυνατότητα συνεργασίας με άλλες ομοσπονδιακές υπηρεσίες όσο εκκρεμεί η τελική κρίση, όπως μεταδίδει το Axios.

Νέες εντάσεις με το μοντέλο Mythos

Την ίδια ώρα, το Πεντάγωνο επιμένει ενώπιον των δικαστηρίων ότι η εταιρεία αποτελεί απειλή, ενώ η κυβέρνηση του Ντόναλντ Τραμπ προωθεί την ανάπτυξη του νέου μοντέλου Mythos σε ολόκληρη την ομοσπονδιακή διοίκηση.

Παράλληλα, καταγράφεται έντονη κινητικότητα στους κρατικούς φορείς, με επικεφαλής υπηρεσιών να αναζητούν τρόπους θωράκισης των συστημάτων τους απέναντι σε πιθανές κυβερνοεπιθέσεις μέσω του Mythos. Η εξέλιξη αυτή ενδέχεται να περιπλέξει ακόμη περισσότερο το επιχείρημα ότι η Anthropic συνιστά απειλή για την εθνική ασφάλεια.

Οι εξελίξεις αναμένονται σύντομα, καθώς η επόμενη ακρόαση έχει οριστεί για τις 19 Μαΐου, με την υπόθεση να παραμένει ανοιχτή και κρίσιμη για το μέλλον της χρήσης AI σε στρατιωτικό επίπεδο.

πηγή: ieidiseis.gr

Διαβάζουμε ακόμη:

Το Mythos, το νεότερο και πλέον ισχυρό μοντέλο τεχνητής νοημοσύνης της Anthropic, επέτρεψε στη Mozilla Foundation να εντοπίσει και να διορθώσει 271 ευπάθειες ασφαλείας στον Firefox, τον δημοφιλή περιηγητή ιστού.

271 ευπάθειες… Τρομάζεις;

Loading

Subscribe
Ειδοποίηση για
2 Σχόλια
Inline Feedbacks
Όλα τα σχόλια
Γιάννης Κυριακόπουλος
Αρχισυντάκτης

Καλημέρα Διονύση.
Ο Ισαάκ Ασίμωφ στα μυθιστορήματά του θεωρούσε αυτονόητη την προστασία της ανθρωπότητας από τα ρομπότ.
Διαβάζουμε στη Βικιπαίδεια:

Οι τρεις νόμοι της ρομποτικής είναι κανόνες στους οποίους υπακούν τα περισσότερα ρομπότ με ποζιτρονικό εγκέφαλο που εμφανίζονται στα έργα επιστημονικής φαντασίας του συγγραφέα Ισαάκ Ασίμωφ , ενώ χρήση τους έχουν κάνει και άλλοι δημιουργοί επιστημονικής φαντασίας. Οι νόμοι αυτοί πρωτοδιατυπώθηκαν από τον Ασίμωφ στο διήγημα «Runaround» (1942) και είναι οι εξής:

  1. Το ρομπότ δεν θα κάνει κακό σε άνθρωπο, ούτε με την αδράνειά του θα επιτρέψει να βλαφτεί ανθρώπινο ον
  2. Το ρομπότ πρέπει να υπακούει τις διαταγές που του δίνουν οι άνθρωποι, εκτός αν αυτές οι διαταγές έρχονται σε αντίθεση με τον πρώτο νόμο
  3. Το ρομπότ οφείλει να προστατεύει την ύπαρξή του, εφόσον αυτό δεν συγκρούεται με τον πρώτο και τον δεύτερο νόμο

Σε μεταγενέστερα μυθιστορήματα του Ασίμωφ, οι τρεις νόμοι της ρομποτικής συμπληρώθηκαν από το ρομπότ Ντάνιελ Όλιβοου με τον μηδενικό νόμο της ρομποτικής:

  • Το ρομπότ δεν θα κάνει κακό στην ανθρωπότητα, ούτε με την αδράνειά του θα επιτρέψει να βλαφτεί η ανθρωπότητα,

οπότε και ο πρώτος νόμος συμπληρώθηκε ανάλογα (παρόμοιες προσαρμογές έγιναν και στον δεύτερο και τρίτο νόμο):

  • Το ρομπότ δεν θα κάνει κακό σε άνθρωπο, ούτε με την αδράνειά του θα επιτρέψει να βλαφτεί ανθρώπινο ον, εφόσον αυτό δεν αντιτίθεται στο μηδενικό νόμο.

Στους νόμους αυτούς, αλλά και στις παραβιάσεις τους, στηρίχθηκαν τα διηγήματα για ρομπότ του Ασίμωφ, αλλά και πολλών άλλων συγγραφέων.

Ο Ασίμωφ απέφευγε τα κακοποιά ρομπότ της λαϊκότερης επιστημονικής φαντασίας και χαρακτήριζε “Φρανκενσταϊνικό σύνδρομο” κάθε φόβο της ανθρωπότητας προς τα δημιουργήματά της τα οποία θα την καταστρέψουν.
Αν ζούσε σήμερα…..

Τελευταία διόρθωση6 ημέρες πριν από Γιάννης Κυριακόπουλος
Αποστόλης Παπάζογλου
Διαχειριστής

Καλημέρα παιδιά.
Δύο πλανήτες συναντιούνται. Ο Α είναι χαρούμενος και ο Β θλιμμένος. Ρωτάει ο Α τον Β: τι έχεις; και ο Β απαντά: νομίζω ότι έχω αρπάξει ιό…την ανθρωπότητα. Απαντά τότε ο Α: μην ανησυχείς, το είχα κι εγώ κάποτε, θα περάσει.
Από την πρόσφατη ταινία “Father, Mother, Sister, Brother” του Jim Jarmusch.