Το γραφείο του ιατρικού εξεταστή του Σαν Φρανσίσκο αποφάσισε ότι ο Suchir Balaji, πρώην ερευνητής του OpenAi που έγινε φωνητικός κριτικός της εταιρείας, πέθανε από αυτοκτονία.

Σύμφωνα με την έκθεση , ο Balaji υπέστη μια αυτοτραυματική πληγή πυροβολισμού και οι ερευνητές δεν βρήκαν στοιχεία για το άσχημο παιχνίδι. Παρά την επίσημη απόφαση, το πέρασμα του έχει εντατικοποιήσει τον έλεγχο γύρω από την εσωτερική κουλτούρα του OpenAI, την ηθική του AI και τις νομικές προκλήσεις.

Balaji, 26 ετών εκπαιδεύτηκαν χρησιμοποιώντας περιεχόμενο που αποκτήθηκε χωρίς κατάλληλη εξουσιοδότηση. Οι προειδοποιήσεις του απέκτησαν ευρύτερη προσοχή μετά από αγωγή από τους New York Times, κατηγορώντας τον OpenAi για παράνομη απόξεση περιεχομένου που προστατεύεται από πνευματικά δικαιώματα. Οι δηλώσεις του συνέβαλαν σε μια μεγαλύτερη συζήτηση σχετικά με τη διαφάνεια του ΑΙ και την εταιρική λογοδοσία.”>

Τα ευρήματα αυτοψίας και οι αναπάντητες ερωτήσεις

Η αναφορά του δικαστή αναφέρει ότι ο θάνατος του Balaji προκλήθηκε από μια ενιαία πληγή πυροβολισμού, χωρίς να αποδείξει την εμπλοκή τρίτων. Η επιβολή του νόμου επιβεβαίωσε ότι δεν υπήρχαν ενδείξεις αναγκαστικής εισόδου ή αγώνα στη σκηνή, ενισχύοντας την ολοκλήρωση της αυτοκτονίας τους. Οι ανησυχίες του είχαν τις ρίζες του στον αυξανόμενο νομικό και ηθικό έλεγχο των μοντέλων AI, ιδίως όσον αφορά τον τρόπο με τον οποίο οι εταιρείες προμηθεύουν τα δεδομένα που εξουσιώνουν τα συστήματά τους.

OpenAi έχει επανειλημμένα υπερασπιστεί τις πρακτικές του, υποστηρίζοντας ότι η εκπαίδευσή της AI εμπίπτει σε δίκαιη χρήση-ισχυρίζεται ότι τώρα αποτελεί αντικείμενο πολλαπλών νομικών μάχες. Με ανησυχίες που προκύπτουν σε αυξανόμενο αριθμό αγωγών κατά της OpenAI, οι οποίες ισχυρίζονται ότι τα μοντέλα του βασίζονται σε περιεχόμενο που προστατεύεται από πνευματικά δικαιώματα χωρίς άδεια. Οι ανησυχίες του Balaji αντανακλούσαν από άλλους στην κοινότητα AI, καθώς οι ερωτήσεις σχετικά με την αποζημίωση για τους δημιουργούς περιεχομένου και τη νομιμότητα του υλικού που παράγεται από AI συνεχίζουν να κλιμακώνονται. Εκείνοι που πιέζουν για ταχύτερη εμπορευματοποίηση. Καθώς η OpenAI επεκτείνει τις δυνατότητές της AI, έχουν προκύψει εσωτερικές εντάσεις σχετικά με το πόσο γρήγορα η εταιρεία πρέπει να αναπτύξει και να αναπτύξει την τεχνολογία της. ανησυχίες. Παρά την πρόσφατη εξασφάλιση επένδυσης 40 δισεκατομμυρίων δολαρίων από την Softbank, η εταιρεία αναμένεται να χάσει χρήματα μετά από απώλεια 5 δισεκατομμυρίων δολαρίων το 2024. Πιο πρόσφατα αναδημιουργήθηκαν ακόμη περισσότερο με προσφορά εξαγοράς 97,4 δισεκατομμυρίων δολαρίων, η οποία απορρίφθηκε από το διοικητικό συμβούλιο της OpenAi. Ορισμένες αναφορές πρότειναν ότι ο θάνατος του Balaji μπορεί να σχετίζεται με το Deepseek R1, το ισχυρό μοντέλο λογικής AI που φέρεται να συνδέεται με τις προσπάθειες του cyberespionage. Το Deepseek της Κίνας, κατηγορήθηκε από ορισμένα από τη χρήση κλεμμένων δεδομένων εκπαίδευσης ή τη χρήση μη εξουσιοδοτημένης εξόρυξης γνώσεων από τα κορυφαία μοντέλα της OpenAI, δημιουργώντας ανησυχίες σχετικά με τον τρόπο με τον οποίο οι κυβερνήσεις και οι εταιρείες χειρίζονται την έρευνα AI. απελευθερώνοντας τα δικά της μοντέλα για να εξασφαλίσει την ασφάλεια του AI και να μειώσει την πιθανή κατάχρηση. Οι υπάλληλοι της Meta επιβεβαίωσαν ότι η ομάδα AI της Meta ήρθε υπό έντονη πίεση μετά την απελευθέρωση του μοντέλου R1 του Deepseek, λέγοντας ότι άλλαξαν σε”λειτουργία πανικού”. Σχετικά με τη ρύθμιση του AI και τις ηθικές ανησυχίες οδήγησαν ορισμένους να σκεφτούν για το αν το έργο του τέμνει με ευρύτερες γεωπολιτικές εντάσεις στην ανάπτυξη του AI. > Οι επικρίσεις του Balaji για την OpenAi προκάλεσαν μια σειρά νομικών προκλήσεων που αντιμετωπίζει τώρα η εταιρεία. Χρησιμοποιήστε περιεχόμενο από τα αρχεία των γίγατων των μέσων ενημέρωσης. Time, η News Corp ασχολείται με νομικές ενέργειες εναντίον άλλων εταιρειών AI, όπως η αμηχανία AI, για το φερόμενο περιεχόμενο χωρίς άδεια. Αυτές οι περιπτώσεις υπογραμμίζουν τις αυξανόμενες εντάσεις μεταξύ των εταιρειών AI και των δημιουργών περιεχομένου, καθώς τα δικαστήρια καλούνται όλο και περισσότερο να καθορίσουν τον τρόπο με τον οποίο τα δεδομένα εκπαίδευσης AI πρέπει να αντιμετωπίζονται σύμφωνα με το νόμο περί πνευματικών δικαιωμάτων.

Ο θάνατος του Balaji ήρθε σε μια εποχή που ο OpenAi γνώρισε ένα κύμα αναχωρήσεων υψηλού προφίλ. Μεταξύ αυτών ήταν η έξοδος του πρώην επικεφαλής της τεχνολογίας Mira Murati, ο οποίος εγκατέλειψε την εταιρεία μετά από έξι χρόνια για να ξεκινήσει το δικό της επιχείρημα AI. Ένας άλλος βασικός αριθμός, ο Miles Brundage, απομακρύνθηκε από την ομάδα πολιτικής του OpenAi, αναφέροντας την επιθυμία να εργαστεί για τη διακυβέρνηση του AI εκτός της εταιρείας. ρήτρα που σχετίζεται με την τεχνητή γενική νοημοσύνη (AGI). Η ρήτρα επιτρέπει στο OpenAI να διακόψει τους δεσμούς με τη Microsoft εάν επιτύχει το AGI-ένα σύστημα AI ικανό για συλλογιστική και μάθηση σε ανθρώπινο επίπεδο. σχέση με τον μεγαλύτερο επενδυτή του. Η Microsoft έχει επενδύσει δισεκατομμύρια στο OpenAI, ωστόσο η ικανότητά της να συνεχίσει να επωφελείται από την τεχνολογία της OpenAI θα μπορούσε να τεθεί σε κίνδυνο εάν η OpenAI δηλώνει μια επανάσταση AGI.

Οι ανησυχίες αυτές έχουν ωθήσει τη Microsoft να επεκτείνει το χαρτοφυλάκιο του AI πέρα ​​από το OpenAI. Η εταιρεία επενδύει σε ανταγωνιστικές εταιρείες AI, μια κίνηση που ερμηνεύεται ευρέως ως αντιστάθμιση ενάντια στην πιθανή αστάθεια στο OpenAI. Ενώ η Microsoft λέει ότι παραμένει βαθιά αφοσιωμένη στο OpenAI, οι πρόσφατοι ελιγμοί της δείχνουν ότι προετοιμάζεται για ένα σενάριο όπου η OpenAi αναδιαρθρώνει τις συνεργασίες του ή αντιμετωπίζει ρυθμιστικές αποτυχίες. >

Η υπόθεση του Balaji έχει αναζωογονήσει τις ανησυχίες σχετικά με τους κινδύνους που αντιμετωπίζουν οι καταγγέλλοντες στη βιομηχανία AI. Σε αντίθεση με τους τομείς όπως η χρηματοδότηση ή τα φαρμακευτικά προϊόντα, όπου υπάρχουν ρυθμιστικές προστασίες για τους υπαλλήλους που εκθέτουν εταιρική παράβαση, η ανάπτυξη του AI παραμένει σε μεγάλο βαθμό μη ρυθμιζόμενη. Timnit Gebru , πρώην ερευνητής της Google, αναγκάστηκε να βγει από την εταιρεία μετά από ανησυχίες σχετικά με τις προκαταλήψεις στα μοντέλα AI. Οι επικρίσεις του Balaji για το OpenAI ακολούθησαν παρόμοια τροχιά-οι ανησυχίες του απορρίφθηκαν από την εταιρεία, ακόμη και όταν η εξωτερική εξέταση των πρακτικών κατάρτισης AI αυξήθηκε. για όσους προκαλούν ηθικές ανησυχίες. Καθώς τα μοντέλα AI γίνονται πιο ενσωματωμένα σε κρίσιμη υποδομή, μπορεί να είναι απαραίτητη η προστασία των καταγγελιών για την εξασφάλιση της διαφάνειας στην ανάπτυξη του AI. > Οι κυβερνήσεις λαμβάνουν τώρα μέτρα για να επιβάλουν μεγαλύτερη εποπτεία στις εταιρείες AI. Η Ευρωπαϊκή Ένωση οδήγησε το δρόμο με την πράξη AI, η οποία εισήγαγε τις απαιτήσεις διαφάνειας και τους αυστηρότερους κανονισμούς σχετικά με τα δεδομένα εκπαίδευσης AI. Στις Ηνωμένες Πολιτείες, οι νομοθέτες εξετάζουν επίσης νέες πολιτικές που σχετίζονται με την ΑΙ, συμπεριλαμβανομένης της πιθανότητας να απαιτήσουν από τις επιχειρήσεις της ΑΙ να αποκαλύψουν τις πηγές δεδομένων τους. Οι εταιρείες δεν μπορούν να λειτουργούν χωρίς λογοδοσία. Η συζήτηση σχετικά με τον κανονισμό του AI είναι πιθανό να ενταθεί ως αγωγές, ηθικές ανησυχίες και αγώνες εταιρικών εξουσιών συνεχίζουν να διαμορφώνουν τη βιομηχανία. Οι ανησυχίες του σχετικά με τις πρακτικές δεδομένων κατάρτισης της OpenAI παραμένουν σχετικές, καθώς οι εταιρείες εξακολουθούν να αντιμετωπίζουν αγωγές σχετικά με τη χρήση υλικών που προστατεύονται από πνευματικά δικαιώματα. Οι νομικές προκλήσεις εναντίον της OpenAI, συμπεριλαμβανομένης της δίκης της New York Times, θα μπορούσαν να αναμορφώσουν τον τρόπο με τον οποίο οι εταιρείες AI χειρίζονται την απόκτηση περιεχομένου.

OpenAi αντιμετωπίζει τη δυσκολία της πλοήγησης ενός ταχέως μεταβαλλόμενου ρυθμιστικού τοπίου ενώ προσπαθεί να διατηρήσει το ανταγωνιστικό της πλεονέκτημα. Οι συμφωνίες αδειοδότησης είναι μια στρατηγική κίνηση για την αντιμετώπιση των νομικών ανησυχιών, αλλά οι συνεχιζόμενες διαφορές πνευματικών δικαιωμάτων υποδηλώνουν ότι οι εταιρείες AI ενδέχεται να χρειαστούν πιο δομημένες συμφωνίες με παρόχους περιεχομένου στο μέλλον.

Categories: IT Info