Quantcast
Aktuelles
Digital Eliteboard - Das Digitale Technik Forum

Registriere dich noch heute kostenlos, um Mitglied zu werden! Sobald du angemeldet bist, kannst du auf unserer Seite aktiv teilnehmen, indem du deine eigenen Themen und Beiträge erstellst und dich über deinen eigenen Posteingang mit anderen Mitgliedern unterhalten kannst! Zudem bekommst du Zutritt zu Bereichen, welche für Gäste verwehrt bleiben

Registriere dich noch heute kostenlos, um Mitglied zu werden! Sobald du angemeldet bist, kannst du auf unserer Seite aktiv teilnehmen, indem du deine eigenen Themen und Beiträge erstellst und dich über deinen eigenen Posteingang mit anderen Mitgliedern unterhalten kannst! Zudem bekommst du Zutritt zu Bereichen, welche für Gäste verwehrt bleiben

Handy - Navigation Ajax: Neue Details zur Offline-KI in iOS 18 auf iPhones durchgesickert

Apple wird seine KI-Strategie im Juni im Rahmen der WWDC Entwicklerkonferenz als Teil von iOS 18 sowie der anderen neuen Betriebssystemversionen vorstellen.
Jetzt sickern immer mehr Details dazu durch, was geplant ist.

Du musst Regestriert sein, um das angehängte Bild zusehen.


Offline-KI in iOS 18.
Neues gibt es nun im aktuellen PowerOn-Newsletter von Mark Gurman.
Der glaubt, dass die neuen iPhone-KI-Funktionen vollständig von einem von Apple entwickelten Offline-Modell für große Sprachmodelle (LLM, Large Language Model) auf dem Gerät selbst unterstützt werden (via 9to5mac).
Dieses Gerücht war schon vor einiger Zeit aufgekommen.

Gurman nennt dazu jetzt weitere Informationen.
So heißt es, dass Apple die Vorteile dieses "Offline"-Ansatzes in Bezug auf Datenschutz und Geschwindigkeit anpreisen wird.

9to5Mac hat bereits entsprechende Code-Referenzen in iOS 17.4 gefunden, die sich auf ein geräteinternes Sprachmodell namens "Ajax" beziehen.
Apple arbeitet auch an Server-gehosteten Versionen von Ajax.

Der Nachteil von geräteinternen LLMs ist, dass sie nicht so leistungsfähig sein können wie Modelle, die auf riesigen Serverfarmen laufen, mit Dutzenden von Milliarden von Parametern und ständig aktualisierten Daten dahinter.
Dennoch könnte die Offline-Variante durchaus bessere, spezifisch auf einen Nutzer bezogene Ergebnisse bieten, als das eine KI auf einem Server könnte, die von Millionen von Nutzern gefüttert wird.

On-Device-Modelle reagieren in der Regel zudem viel schneller als die Weiterleitung einer Anfrage über einen Cloud-Dienst und haben auch den Vorteil, dass sie an Orten ohne oder mit eingeschränkter Konnektivität offline arbeiten können.

Neue iPhone-Modelle auf Ajax getrimmt​

Die Apple-Entwickler haben wahrscheinlich alle Vorteile aus dem geräteinternen Ansatz herausgeholt und sowohl iOS 18 als auch die kommenden iPhone-Modelle auf Ajax getrimmt.
Obwohl geräteinterne LLMs vielleicht nicht über die gleiche eingebettete Wissensdatenbank wie zum Beispiel ChatGPT verfügen, können sie so eingestellt werden, dass sie bei vielen Aufgaben sehr leistungsfähig sind.

Man kann sich vorstellen, dass ein LLM auf dem Gerät ausgeklügelte automatische Antworten auf Nachrichten generieren oder die Interpretation vieler gängiger Siri-Anfragen verbessern könnte.
Außerdem fügt es sich nahtlos in Apples striktes Festhalten in puncto Privatsphäre ein.

Quelle: Winfuture
 
Zurück
Oben