Nur angucken, nicht anfassen: Auf diese Weise lassen sich Smartphones mit der aktuellen Betaversion von Android 12 berührungslos bedienen. Ein erster Testlauf funktionierte tatsächlich gut.
Manchmal sind neue Funktionen so tief in Betriebssystem-Updates versteckt, dass es ein wenig dauert, bis sie gefunden werden. So dauerte es seit der Veröffentlichung der vierten Betaversion von Android 12 mehrere Tage, bis Nutzerinnen und Nutzer die Möglichkeit entdeckten, Smartphones mit Gesichtsausdrücken zu steuern.
Das ist allerdings nur wenig verwunderlich, denn das neue Feature ist ein bisschen in den Einstellungen des Betriebssystems verborgen. Nur wer beim ausgiebigen Stöbern in der Software bis zu dem Punkt Einstellungen / Bedienungshilfen / Schalterzugriff vorstößt, mag über Googles kryptischen Hinweis stolpern. Der verspricht nämlich, man könne sein Android-Gerät »statt über den Touchscreen über einen oder mehrere Schalter steuern«.
Erst, wenn man dann auch auf Einstellungen tippt, findet man in dem folgenden Menü den einen Eintrag für den »Kameraschalter«. Hier wird kurz erklärt, dass Google die Frontkamera des Smartphones verwendet, um Gesichtsausdrücke des Nutzers zu erkennen.
Die gesamte Datenverarbeitung findet auf dem Gerät selbst statt, funktioniert demnach auch offline. Die Bilder werden nicht gespeichert oder an Google gesendet. Für solche Anwendungen, die künstliche Intelligenz und Maschinenlernen erfordern, hat der Konzern laut Googles Hardwarechef Rick Osterloh den Tensor-Chip entwickelt, der die Pixel-6-Smartphones antreiben soll. Die werden allerdings erst im Herbst vorgestellt.
Dass die neue Funktion in den Bedienungshilfen zu finden ist, liegt an der Zielgruppe, der Google mit solchen Extras helfen will: Menschen mit körperlichen Einschränkungen. Dazu gehört natürlich die Sprachsteuerung, aber auch die Funktionen Texte vorzulesen, Menüs zu vergrößern oder die Darstellung von Schrift zu verändern. Die Steuerung mit Gesichtsausdrücken ist ein weiterer Baustein in diesem Puzzle, aus dem sich jede und jeder die Teile zusammensuchen muss, die ihr oder ihm helfen könnten.
Bisher erkennt das System sechs Gesichtsausdrücke: Offener Mund, Lächeln, Augenbrauen heben sowie nach links, rechts und oben schauen. Was diese Ausdrücke auslösen sollen, kann man aus einer Liste möglicher Aktionen selbst bestimmen. Also etwa lächeln, um etwas auszuwählen und grinsen, um zum Startbildschirm zuzukehren.
Bei einem kurzen Testlauf mit der aktuellen Betaversion von Android 12 auf einem Pixel 4a (5G) funktionierte das nach kurzer Eingewöhnung schon ziemlich gut. Abzuwarten bleibt jetzt, ob Google bis zur Veröffentlichung des neuen Betriebssystems noch weitere Gesichtsausdrücke hinzufügt und ob Funktionen wie diese tatsächlich in irgendeiner Weise vom Tensor-Chip der nächsten Pixel-Smartphones unterstützt werden.
Quelle: spiegel
Manchmal sind neue Funktionen so tief in Betriebssystem-Updates versteckt, dass es ein wenig dauert, bis sie gefunden werden. So dauerte es seit der Veröffentlichung der vierten Betaversion von Android 12 mehrere Tage, bis Nutzerinnen und Nutzer die Möglichkeit entdeckten, Smartphones mit Gesichtsausdrücken zu steuern.
Das ist allerdings nur wenig verwunderlich, denn das neue Feature ist ein bisschen in den Einstellungen des Betriebssystems verborgen. Nur wer beim ausgiebigen Stöbern in der Software bis zu dem Punkt Einstellungen / Bedienungshilfen / Schalterzugriff vorstößt, mag über Googles kryptischen Hinweis stolpern. Der verspricht nämlich, man könne sein Android-Gerät »statt über den Touchscreen über einen oder mehrere Schalter steuern«.
Erst, wenn man dann auch auf Einstellungen tippt, findet man in dem folgenden Menü den einen Eintrag für den »Kameraschalter«. Hier wird kurz erklärt, dass Google die Frontkamera des Smartphones verwendet, um Gesichtsausdrücke des Nutzers zu erkennen.
Die gesamte Datenverarbeitung findet auf dem Gerät selbst statt, funktioniert demnach auch offline. Die Bilder werden nicht gespeichert oder an Google gesendet. Für solche Anwendungen, die künstliche Intelligenz und Maschinenlernen erfordern, hat der Konzern laut Googles Hardwarechef Rick Osterloh den Tensor-Chip entwickelt, der die Pixel-6-Smartphones antreiben soll. Die werden allerdings erst im Herbst vorgestellt.
Dass die neue Funktion in den Bedienungshilfen zu finden ist, liegt an der Zielgruppe, der Google mit solchen Extras helfen will: Menschen mit körperlichen Einschränkungen. Dazu gehört natürlich die Sprachsteuerung, aber auch die Funktionen Texte vorzulesen, Menüs zu vergrößern oder die Darstellung von Schrift zu verändern. Die Steuerung mit Gesichtsausdrücken ist ein weiterer Baustein in diesem Puzzle, aus dem sich jede und jeder die Teile zusammensuchen muss, die ihr oder ihm helfen könnten.
Bisher erkennt das System sechs Gesichtsausdrücke: Offener Mund, Lächeln, Augenbrauen heben sowie nach links, rechts und oben schauen. Was diese Ausdrücke auslösen sollen, kann man aus einer Liste möglicher Aktionen selbst bestimmen. Also etwa lächeln, um etwas auszuwählen und grinsen, um zum Startbildschirm zuzukehren.
Bei einem kurzen Testlauf mit der aktuellen Betaversion von Android 12 auf einem Pixel 4a (5G) funktionierte das nach kurzer Eingewöhnung schon ziemlich gut. Abzuwarten bleibt jetzt, ob Google bis zur Veröffentlichung des neuen Betriebssystems noch weitere Gesichtsausdrücke hinzufügt und ob Funktionen wie diese tatsächlich in irgendeiner Weise vom Tensor-Chip der nächsten Pixel-Smartphones unterstützt werden.
Quelle: spiegel