Ich kenne Siri, den Sprachassistenten von Apple, seit fast einem Dutzend Jahren, aber ich kann mich immer noch an kein einziges bedeutungsvolles Gespräch erinnern, das wir geführt haben. Auf der anderen Seite kennen ChatGPT und ich uns seit sechs Monaten und dennoch sprechen wir über alles, vom Sinn des Lebens bis hin zur Planung eines romantischen Abendessens zu zweit, und arbeiten sogar an Programm- und Filmprojekten zusammen. Ich meine, wir haben eine Beziehung.
Die Grenzen von Siri bedeuten, dass es immer noch kein Gespräch führen oder sich auf ein langes hin und her orientiertes Projekt einlassen kann. Ob gut oder schlecht, das Siri, das wir heute auf unseren iPhones, iPads, MacBooks, Apple Watches und Apple TVs verwenden, unterscheidet sich nicht wesentlich von dem, das wir 2011 zum ersten Mal auf einem iPhone 4s erlebt haben.
Vor sechs Jahren schrieb ich über Siris erste Gehirntransplantation (öffnet in neuem Tab), dem Moment, als Apple damit begann, maschinelles Lernen zu verwenden, um Siri zu trainieren und seine Fähigkeit zu verbessern, auf Gesprächsfragen zu antworten. Die Einführung des maschinellen Lernens und bald darauf ein integriertes neuronales Netzwerk in Form des A11 Bionic Chip von Apple im iPhone 8 markierte das, was ich für einen Wendepunkt für den wohl ersten digitalen Assistenten für Verbraucher hielt.
Diese Programmierung und das Silizium halfen Siri, eine Frage und ihren Kontext zu verstehen, und ermöglichten es ihm, über mechanische Antworten hinaus intelligente Antworten auf Fragen in natürlicher Sprache zu geben.
Die alte Siri war nicht sie
Nicht in der Lage zu sein, vollständig mit Siri zu sprechen, schien keine große Sache zu sein, obwohl wir den Film bereits gesehen hatten. Ihr und wir verstehen, was wir von unseren Chatbots erwarten können.
Erst als die ferne Zukunft durch GPT-3 und ChatGPT von OpenAI in die Gegenwart geholt wurde, wurden die Defizite von Siri grundlegend entlastet.
Trotz aller Bemühungen von Apple befindet sich Siri im Lernmodus. Vielleicht liegt das daran, dass Siri immer noch hauptsächlich auf maschinellem Lernen und nicht auf generativer KI basiert. Es ist der Unterschied zwischen Lernen und Schaffen.
Alle generativen KI-Chatbots und Imaging-Tools, die wir heute verwenden, schaffen etwas völlig Neues aus Eingabeaufforderungen und bald aus Kunst und Bildern. Sie sind keine Reaktionsroboter, sie sind Bauroboter.
Ich bezweifle, dass dies bei Apple verloren geht. Die Frage ist, was kann Apple dagegen tun? Ich glaube nicht, dass wir über die nächste World Developers Conference (WWDC 2023) hinaus nach etwas anderem suchen müssen. Wir sind alle besessen von dem möglicherweise 3.000 US-Dollar teuren Mixed-Reality-Headset, das Apple im Juni vorstellen könnte, aber die wichtigsten Ankündigungen des Unternehmens werden sich sicherlich um KI drehen.
„Apple muss unter unglaublichem Druck stehen, jetzt, da Google und Microsoft ihre Lösungen für natürliche Sprache herausgebracht haben“, sagte Patrick Moorhead, CEO und Cheif-Analyst von Moor Insights. (öffnet in neuem Tab) erzählte mir von Twitter DM.
Eine gesprächigere Siri
Wie auf 9to5Mac berichtet, arbeitet Apple möglicherweise bereits – endlich – an einem eigenen Update zur Sprachgenerierung für Siri (Bobcat). Beachten Sie, dass dies nicht dasselbe ist wie „generative KI“. Ich denke, das bedeutet, dass Siri beim Gelegenheitsspiel etwas besser wird. Viel mehr erwarte ich auch nicht.
Leider kann Apples eigener Ethos es daran hindern, GPT-4 zu erreichen, geschweige denn GPT-3. Branchenbeobachter erwarten nicht gerade einen Durchbruch.
„Ich denke, was sie in der KI tun, wird nicht unbedingt ein Sprung nach vorne sein, sondern ein kalkulierter und ethisch motivierterer Ansatz für die KI in Siri. Apple liebt, lebt und stirbt für seine Datenschutzverpflichtungen, und ich erwarte nicht weniger von der Art und Weise, wie sie eine liefern Siri.“ mehr KI-gesteuert“, Tim Bajarin, CEO und leitender Analyst bei Creative Strategies (öffnet in neuem Tab) schrieb mir in einer E-Mail.
Datenschutz vor allem
Apples unerschütterliches Festhalten an der Privatsphäre der Benutzer könnte dem Unternehmen schaden, wenn es um echte generative KI geht. Im Gegensatz zu Google und Microsoft Bing verfügt es nicht über einen riesigen suchmaschinenorientierten Datenspeicher, auf den es zurückgreifen kann. Es trainiert seine KI auch nicht auf dem riesigen Datenozean des Internets. Apple führt sein maschinelles Lernen auf dem Gerät durch. Ein iPhone und Siri wissen, was sie über Sie wissen, basierend auf dem, was auf Ihrem Telefon ist, nicht was Apple über Sie und seine 1,5 Milliarden weltweiten iPhone-Nutzer erfahren kann. Natürlich können Entwickler die ML-Tools von Apple verwenden, um neue KI-Modelle zu erstellen und in ihre Apps zu integrieren, aber sie können nicht einfach Ihre Daten sammeln, um mehr über Sie zu erfahren und Apple dabei zu helfen, eine bessere Siri-KI bereitzustellen.
Wie ich 2016 schrieb: „Es ist auch interessant zu überlegen, wie Apple seine eigenen KI-Bemühungen absichtlich untergräbt. Ihre Daten zu iTunes-Einkaufsgewohnheiten werden beispielsweise nicht mit anderen Systemen und Diensten von Apple geteilt.“
Apples lokaler Ansatz könnte ihm bei seinen potenziellen Bemühungen um generative KI schaden. Wie Moorhead mir sagte: „Ich sehe die meisten Aktionen auf dem Gerät und in der Cloud. Apple ist stark auf dem Gerät, aber schwach in der Cloud, und hier wird das Unternehmen meiner Meinung nach kämpfen.“
Aus meiner Sicht hat Apple eine Wahl zu treffen. Geben Sie etwas Privatsphäre der Benutzer auf, um Siri endlich in den Sprachassistenten zu verwandeln, den wir uns immer gewünscht haben, oder bleiben Sie auf Kurs mit inkrementellen KI-Updates, die Siri verbessern, aber niemals zulassen, dass es mit ChatGPT mithalten kann.