Apple hat offiziell bestätigt, dass seine ehrgeizigsten künstlichen Intelligenzfunktionen für Siri bis 2026 verzögert werden. Dies zwingt die Benutzer, länger auf einen wirklich starken Assistenten der nächsten Generation zu warten, und enthüllt tiefsitzende technische Herausforderungen im Zentrum seiner KI-Strategie. Die verzögerten Fähigkeiten-einschließlich der Macht, auf dem Bildschirm zu verstehen, den persönlichen Kontext aus Apps zu nutzen und komplexe In-App-Aktionen auszuführen-waren das Herzstück der Vision „Apple Intelligence“, die auf ihrer jüngsten Entwicklerkonferenz enthüllt wurde. href=”https://www.youtube.com/watch?v=pt3qawxibru”target=”_ leer”> wwdc 2025 Interview Mit Mark Spoonauer erfordert Toms Leitfaden und Lance Ulanoff von Tech-Radar, dass die zugrunde liegenden Tech-Qualitäten die aga-zuzuordnen-zu-zu-zu-zu-zu-zu-zu-zu-zu-zu-zu–Pev-Technologie. Erwarten Sie, dass diese Funktionen auf einer völlig neuen”V2″-Scharchitektur basieren. A nachfolgend ACTING ASS. Frühjahr 2026 für die Veröffentlichung. Für Benutzer bedeutet die Verzögerung das Versprechen eines proaktiven, tief integrierten Siri, der am Horizont bleibt und Apple ein schwieriges Spiel gegen Konkurrenten spielt, die jetzt ihre eigenen fortgeschrittenen AI-Assistenten versenden. Anstatt frisch zu beginnen, bestand die erste Strategie von Apple darin, die moderne generative KI auf Siris alternde und notorisch spröde Fundament zu transplantieren. Diese Anstrengung wurde von Insidern als”Wrack”beschrieben, wodurch eine Kaskade von Bugs geschaffen wurde, bei denen die Behebung eines Problems häufig mehrere andere verursacht, eine strategische Krise für Apples KI-Ambitionen. Eine ehemalige Führungskraft war noch stumpf und erzählte Die finanzielle Times. hatten konkrete Konsequenzen, die über verpasste Fristen hinausging, einschließlich peinlicher Störungen wie Siri, die das Phantom-Restaurantreservierungen für Benutzer erstellen. Das Unternehmen stand außerdem mit rechtlichen Auswirkungen und stimmte einer Einigung über 95 Millionen US-Dollar wegen Vorwürfen zu, die versteckte Siri-Aufzeichnungen betreffen. In einem Analyse , John Gruber, der sich mit dem Demütigen von dem Demütigungen um die Entscheidung handelte, die die Entscheidung als notwendig war. Der”einzige Weg nach vorne, auch wenn es kurzfristig peinlich ist.”Alexa+ von Amazon von Amazon macht sich greifbare Fortschritte, nachdem er bereits über eine Million Frühzugriffsnutzer mit einer breiteren öffentlichen Veröffentlichung für diesen Sommer geplant ist. Das Unternehmen leitet außerdem ein neues abonnementbasiertes Geschäftsmodell für seinen Assistenten, der eine Marktverschiebung in Richtung Monetarisierung signalisiert. Google hat seinen Conversational Gemini Live-Assistenten in seinem Ökosystem, einschließlich Google Workspace-Konten, stetig integriert. Spitziger hat das Unternehmen bereits damit begonnen, die proaktiven KI-Assistentenfunktionen für seine Pixel-Geräte zu vergrößern, die Apple jetzt verzögert hat, wie aus einem Bericht von TechCrunch hervorgeht. OpenAI hat seinen fortschrittlichen Sprachmodus im Internet erweitert, Anthropic hat einen Sprachmodus für seine Claude-KI gestartet, und noch kleinere Spieler wie Verwirrung sichern Sie die Partnerschaften vor der Installation mit Smartphone-Herstellern. Microsoft und Openai diversifizieren die Wettbewerbslandschaft und drängen mit einer neuen Plattform für den Aufbau von benutzerdefinierten KI-Copiloten aggressiv in den Unternehmensraum. Das Unternehmen bewegt sich im Herbst mit einer Reihe praktischerer”Apple Intelligence”-Tools, einschließlich Live-Übersetzung. 

zentrales für seinen langfristigen Plan befindet sich, die massive Entwicklergemeinschaft zu befähigen. Der Softwarechef Craig Federighi beschrieb die Strategie als „riesigen Schritt“, indem sie den Entwicklern „direkten Zugriff auf das Modell der On-Device Foundation mit Apple Intelligence“ ermöglichten. Mit dem Umzug können sie Apps erstellen, die Intelligenz nutzen, die „leistungsstark, schnell, mit Privatsphäre aufgebaut und auch dann verfügbar sind, wenn Benutzer offline sind“. Diese Verpflichtung ist architektonisch durch sein”Private Cloud Compute”-System verkörpert, das Apple’s Security-Blog erklärt Es ist so gestaltet, dass . definitiv nicht versuchen, das KI-Modellrennen zu gewinnen; Es wird mehr versucht, das”AI User Experience Race”zu gewinnen. Private Cloud Computing ist der Dreh-und Angelpunkt für diesen Ansatz und bietet einen pragmatischen Kompromiss zwischen der Privatsphäre von On-Geräte und der Cloud-Leistung, die kein Konkurrent leicht replizieren kann. Mit Blick auf die Ambitionen des Unternehmens gehören ein potenzieller webbemerkter Chatbot „Wissen“ und ein „immer auf AI-Copilot“, was auf eine mehrstufige Roadmap über den aktuellen Feature-Set hinausgeht. Das Unternehmen führt jedoch gleichzeitig eine absichtliche langfristige Strategie durch, die auf den einzigartigen Stärken seines integrierten Ökosystems, seiner riesigen Entwicklerbasis und einer Marke, die durch Privatsphäre definiert ist, basiert. entlang.

Categories: IT Info