Seit der Einführung von ChatGPT vor anderthalb Jahren wird eine drängende Frage immer akuter: Wenn künstliche Intelligenz dies leisten kann, warum ist der Assistent meines Smartphones dann immer noch so schlecht?

Am Montag vergrößerte sich diese Kluft noch weiter, als OpenAI ein neues Modell namens GPT-4o ankündigte – das 'o' steht für Omni – welches dem Chatbot neue Fähigkeiten verleiht, Audio, Video und Standbilder zu verstehen und zu erstellen.

Dieses System kann direkt in Sprache operieren, was die Antwortzeiten beschleunigt und es ermöglicht, Stimmnuancen zu erkennen.

Dennoch ist für seine optimale Funktionalität immer noch die Leistungsfähigkeit von Siri erforderlich.

OpenAIs Entwicklungen versprechen eine Ära verbesserter Smartphone-Assistenten, die nicht nur Text, sondern auch audiovisuelle Inhalte effizienter verarbeiten können.

Die Einführung des GPT-4o-Modells könnte einen Wendepunkt in der Interaktion zwischen Mensch und Maschine darstellen, indem es eine natürlichere und intuitivere Kommunikation ermöglicht.

Die Fähigkeit, direkt in gesprochener Sprache zu operieren und darauf zu reagieren, könnte die Art und Weise, wie wir mit unseren Geräten interagieren, grundlegend verändern und zu einer deutlichen Verbesserung der Benutzererfahrung führen.