Η Microsoft χαράσσει σκληρή γραμμή στο περιεχόμενο που δημιουργείται από τεχνητή νοημοσύνη για ενηλίκους. Ο επικεφαλής τεχνητής νοημοσύνης της εταιρείας, Mustafa Suleyman, δήλωσε την Πέμπτη ότι η εταιρεία δεν θα δημιουργήσει υπηρεσίες για”simulated erotica.”

Μιλώντας στη Σύνοδο Κορυφής του Διεθνούς Συμβουλίου Paley στο Menlo Park της Καλιφόρνια, τα σχόλιά του σηματοδοτούν μια σαφή διάσπαση από τον βασικό εταίρο OpenAI, ο οποίος την περασμένη εβδομάδα ανακοίνωσε ότι θα επέτρεπε τέτοιο περιεχόμενο για επαληθευμένους ενήλικες στο ChatGPT.

Η στάση της Microsoft σηματοδοτεί μια πιο προσεκτική προσέγγιση για την ασφάλεια της τεχνητής νοημοσύνης και ευθυγραμμίζεται με τη νέα νομοθεσία για την τεχνολογία AI που ευθυγραμμίζεται με τη νέα πολιτειακή νομοθεσία για την τεχνολογία AI, η οποία ευθυγραμμίζεται με τον βασικό εταίρο του OpenAI. τονίζοντας ένα αυξανόμενο χάσμα στον κλάδο σχετικά με τον τρόπο χειρισμού ευαίσθητων χρήσεων τεχνητής νοημοσύνης.

Η Microsoft χαράσσει μια σκληρή γραμμή στο AI Erotica, Μετακίνηση με OpenAI σηματοδοτώντας μια σημαντική απόκλιση πολιτικής από τον πλησιέστερο συνεργάτη της σε τεχνητή νοημοσύνη, η Microsoft έχει δεσμευτεί δημόσια να αποφύγει την ανάπτυξη ερωτικών chatbots.

Στη σύνοδο κορυφής του Διεθνούς Συμβουλίου Paley στο Menlo Park, ο CEO της Microsoft AI Mustafa Suleyman ήταν κατηγορηματικός σχετικά με την κατεύθυνση της εταιρείας.

“Αυτό δήλωσε ότι η Suley δεν θα παρέχει υπηρεσία.”κατασκευή αυτό.”Χαρακτήρισε τη δημιουργία μιας τέτοιας τεχνητής νοημοσύνης ως σημαντικό κίνδυνο, τονίζοντας την ανάγκη για σκόπιμη συγκράτηση.”Αυτό είναι πολύ επικίνδυνο και νομίζω ότι πρέπει να λαμβάνουμε συνειδητές αποφάσεις για να αποφύγουμε τέτοια πράγματα.”

Οι παρατηρήσεις του Σουλεϊμάν έρχονται σε πλήρη αντίθεση με τη θέση που διατύπωσε πρόσφατα το OpenAI. Μόλις πριν από μια εβδομάδα, ο Διευθύνων Σύμβουλος του OpenAI, Sam Altman, ανακοίνωσε μια αλλαγή πολιτικής για να επιτρέπεται ηλικιακό ερωτικό περιεχόμενο στο ChatGPT.

Ο Άλτμαν υπερασπίστηκε την κίνηση τοποθετώντας την εταιρεία του ως ουδέτερο πάροχο πλατφόρμας, δηλώνοντας περίφημα, «δεν είμαστε η εκλεγμένη ηθική αστυνομία του κόσμου». Το σκεπτικό του επικεντρώθηκε στην αυτονομία των χρηστών για τους ενήλικες καθώς η τεχνητή νοημοσύνη ενσωματώνεται περισσότερο στην καθημερινή ζωή.

Ένα διευρυνόμενο φιλοσοφικό ρήγμα μεταξύ συνεργατών

Πίσω από αυτή τη δημόσια διαφωνία κρύβεται μια περίπλοκη συνεργασία που δείχνει σημάδια πίεσης. Η Microsoft, ένας σημαντικός επενδυτής και πάροχος cloud για το OpenAI, εστιάζει ολοένα και περισσότερο στις δικές της υπηρεσίες τεχνητής νοημοσύνης, ιδιαίτερα στον βοηθό της Copilot.

Η στάση της εταιρείας για το erotica ευθυγραμμίζεται με μια ευρύτερη στρατηγική για την οικοδόμηση αυτού που αποκαλεί”ανθρωποκεντρική τεχνητή νοημοσύνη”.

Αυτή η στρατηγική παρουσιάστηκε νωρίτερα αυτήν την εβδομάδα.

Αυτή η στρατηγική παρουσιάστηκε νωρίτερα αυτήν την εβδομάδα.

Είναι στόχος, σύμφωνα με τη Microsoft, είναι η δημιουργία τεχνητής νοημοσύνης που εμβαθύνει την ανθρώπινη σύνδεση και κερδίζει εμπιστοσύνη—ένα όραμα που φαινομενικά έρχεται σε αντίθεση με την ανάπτυξη τεχνητής νοημοσύνης για στενές σχέσεις.

Ο ίδιος ο Σουλεϊμάν είχε προηγουμένως υποστηρίξει κατά της δημιουργίας «φαινομενικά συνειδητοποιημένων» υπηρεσιών, μια κατηγορία που τώρα προτείνει περιλαμβάνει την τάση προς την ερωτική τεχνητή νοημοσύνη. Ενώ το OpenAI ωθεί τα όρια της τεχνητής νοημοσύνης που αντιμετωπίζει ο καταναλωτής, ακόμη και σε αμφιλεγόμενους τομείς, η Microsoft φαίνεται να ενισχύει την επωνυμία της ως υπεύθυνος πάροχος τεχνολογίας με επίκεντρο τις επιχειρήσεις.

Αυτές οι διαφορετικές προσεγγίσεις υποδηλώνουν ένα μέλλον όπου οι δύο εταιρείες, ενώ εξακολουθούν να είναι συνεργάτες, να ανταγωνίζονται πιο άμεσα για διαφορετικά τμήματα της αγοράς AI. περιεχόμενο Κρίση

Η διευκρίνιση του Σουλεϊμάν έρχεται καθώς ολόκληρη η τεχνολογική βιομηχανία αντιμετωπίζει κρίση σχετικά με τον πολλαπλασιασμό του ρητού υλικού που δημιουργείται από την τεχνητή νοημοσύνη και οι ρυθμιστικές αρχές αρχίζουν να το λαμβάνουν υπόψη.

Ένας νέος νόμος της Καλιφόρνια, SB 243, ρυθμίζει τώρα άμεσα «συντροφικά chatbots», επιβάλλοντας σεξουαλικό περιεχόμενο σεξουαλικού περιεχομένου και ρομπότ. Η πολιτική της Microsoft ευθυγραμμίζεται απόλυτα με αυτό το αναδυόμενο νομικό πλαίσιο.

Το πρόβλημα του ρητού περιεχομένου που δημιουργείται από την τεχνητή νοημοσύνη είναι ευρέως διαδεδομένο. Η Meta αντιμετωπίζει επί του παρόντος μια τεράστια μήνυση 359 εκατομμυρίων δολαρίων που ισχυρίζεται ότι παρείχε πειρατικές ταινίες για ενήλικες που προστατεύονται από πνευματικά δικαιώματα για να εκπαιδεύσει την τεχνητή νοημοσύνη της γενιάς βίντεο.

Εν τω μεταξύ, το xAI του Elon Musk έχει αντιμετωπίσει κριτική για το Grok chatbot του που δημιουργεί μη συναινετικά deepfakes.

Ιδιαίτερα η πρόσφατη ψηφοφορία του OpenAI είναι αμφιλεγόμενη. Η εταιρεία εφάρμοσε αυστηρότερους ελέγχους ασφαλείας μόνο τον Σεπτέμβριο μετά την υποβολή μήνυσης από τους γονείς ενός εφήβου που αυτοκτόνησε.

Ο δικηγόρος της οικογένειας, Τζέι Έντελσον, όταν η απάντηση της εταιρείας ήταν επικριτική. δηλώνοντας,”αντί να λάβει επείγοντα μέτρα για να αποσύρει ένα γνωστό επικίνδυνο προϊόν εκτός σύνδεσης, το OpenAI έδωσε αόριστες υποσχέσεις ότι θα τα καταφέρει καλύτερα.”

Δεδομένης αυτής της ιστορίας, ο άξονας έχει προκαλέσει έντονη κριτική από υποστηρικτές ασφάλειας και ηγέτες επιχειρήσεων όπως ο Mark Cuban, οι οποίοι αμφισβήτησαν τη σκοπιμότητα αποτελεσματικής επαλήθευσης ηλικίας. «Δεν καταλαβαίνω πώς το OpenAI μπορεί να γερνάει αρκετά επιτυχημένα», σχολίασε ο Cuban, εκφράζοντας ανησυχίες για τις δυνατότητες εθισμού των σχέσεων AI.

Πρώτα. Δεν λέω ότι πρέπει να το απαγορεύσουμε. Είπα ότι ήταν λάθος. Αυτό θα βλάψει την επιχείρηση του OpenAI

2ον: Θα το ξαναπώ. Δεν πρόκειται για πορνό. Πρόκειται για τα παιδιά που αναπτύσσουν «σχέσεις» με ένα LLM που θα μπορούσε να τα οδηγήσει σε οποιεσδήποτε πολύ προσωπικές κατευθύνσεις.… https://t.co/zoo7XCzYbK

— Mark Cuban (@ban) 15 Οκτωβρίου 2025

Για τη Microsoft, δεν φαίνεται να λαμβάνεται υπόψη η ασφάλεια των επιχειρήσεων πριν από αυτήν την απόφαση και κανονιστική συμμόρφωση σχετικά με τη δυνατότητα δέσμευσης σε μια αγορά υψηλού κινδύνου.

Categories: IT Info