darius1
Teammitglied
Mit dem "Project Erasmus" hat der Ex-iPhone-Ingenieur Bob Burrough eine 3D-UI geschaffen, die sich an das Umgebungslicht anpasst.
Von Ben Schwan
Noch benötigt "Project Erasmus" eine kleine Hardware-Anpassung.
(Bild: Screenshot YouTube)
Er gehörte einst zu den Topentwicklern bei Apple – sieben Jahre lang kümmerte er sich unter anderem um das iPad- und iPhone-Betriebssystem: Bob Burrough hat sich mit neuen User-Interface-Ideen zurückgemeldet. Mit dem sogenannten Project Erasmus will der
Software mit Fischauge
Die Idee dabei ist simpel (siehe Video): Die komplette Nutzerschnittstelle soll auf Licht und Schatten in der Umgebung reagieren und sich dadurch deutlich realistischer anfühlen. Ein Demonstrationsvideo zeigt, wie das praktisch gehen soll: Hält man das iPhone beispielsweise unter eine Lampe, passen sich Schatten und Beleuchtung der Bedienoberfläche daran an.
Das Video demonstriert die Auswirkungen der Lichtverhältnisse auf die Benutzeroberfläche. (Quelle: Bob Burrough)
Neben der Project-Erasmus-Software verwendet Burrough nur ein weiteres Hardware-Element: Der Frontkamera des iPhone hat er ein Weitwinkelobjektiv von Olloclip (bzw. Fischauge) spendiert, damit sie ein genaueres Abbild der Umgebung einfangen kann. Ein Echtzeit-Rendering sorgt dann dafür, dass die UI-Elemente auf dem Bildschirm wie physische Objekte wirken.
Bislang nur ein Proof of ConceptIn seinem Demovideo läuft Burrough durch Räume seines Hauses mit unterschiedlicher Beleuchtung und zeigt die dynamische Anpassung der Oberfläche, deren Schalter und Texturen natürliche Schatten und Lichtbereiche und Highlights zeigen. Ist das Gerät ganz im Dunkeln, wird natürlich auch die Oberfläche dunkel – was nutzungstechnisch eher unsinnvoll ist.Noch ist Project Erasmus in einem frühen Entwicklungsstadium beziehungsweise ein Konzeptbereich – was Burrough damit künftig vorhat, ist unklar. Auch müssten Anpassungen vorgenommen werden, damit der Code auch mit der gewöhnlichen Selfie-Kamera des iPhone läuft. Alternativ könnte zur Raumerfassung auch der Face-ID-Gesichtserkennungssensor (True Depth) in neueren iPhone-Modellen verwendet werden, der über eine 3D-Sensorik verfügt.Anzeige
Von Ben Schwan
Sie müssen registriert sein, um Links zu sehen.
Sie müssen registriert sein, um Links zu sehen.
Sie müssen registriert sein, um Links zu sehen.
Du musst angemeldet sein, um Bilder zu sehen.
Noch benötigt "Project Erasmus" eine kleine Hardware-Anpassung.
(Bild: Screenshot YouTube)
Er gehörte einst zu den Topentwicklern bei Apple – sieben Jahre lang kümmerte er sich unter anderem um das iPad- und iPhone-Betriebssystem: Bob Burrough hat sich mit neuen User-Interface-Ideen zurückgemeldet. Mit dem sogenannten Project Erasmus will der
Sie müssen registriert sein, um Links zu sehen.
Smartphone-Oberflächen revolutionieren.Software mit Fischauge
Die Idee dabei ist simpel (siehe Video): Die komplette Nutzerschnittstelle soll auf Licht und Schatten in der Umgebung reagieren und sich dadurch deutlich realistischer anfühlen. Ein Demonstrationsvideo zeigt, wie das praktisch gehen soll: Hält man das iPhone beispielsweise unter eine Lampe, passen sich Schatten und Beleuchtung der Bedienoberfläche daran an.
Du musst angemeldet sein, um Bilder zu sehen.
Das Video demonstriert die Auswirkungen der Lichtverhältnisse auf die Benutzeroberfläche. (Quelle: Bob Burrough)
Neben der Project-Erasmus-Software verwendet Burrough nur ein weiteres Hardware-Element: Der Frontkamera des iPhone hat er ein Weitwinkelobjektiv von Olloclip (bzw. Fischauge) spendiert, damit sie ein genaueres Abbild der Umgebung einfangen kann. Ein Echtzeit-Rendering sorgt dann dafür, dass die UI-Elemente auf dem Bildschirm wie physische Objekte wirken.
Bislang nur ein Proof of ConceptIn seinem Demovideo läuft Burrough durch Räume seines Hauses mit unterschiedlicher Beleuchtung und zeigt die dynamische Anpassung der Oberfläche, deren Schalter und Texturen natürliche Schatten und Lichtbereiche und Highlights zeigen. Ist das Gerät ganz im Dunkeln, wird natürlich auch die Oberfläche dunkel – was nutzungstechnisch eher unsinnvoll ist.Noch ist Project Erasmus in einem frühen Entwicklungsstadium beziehungsweise ein Konzeptbereich – was Burrough damit künftig vorhat, ist unklar. Auch müssten Anpassungen vorgenommen werden, damit der Code auch mit der gewöhnlichen Selfie-Kamera des iPhone läuft. Alternativ könnte zur Raumerfassung auch der Face-ID-Gesichtserkennungssensor (True Depth) in neueren iPhone-Modellen verwendet werden, der über eine 3D-Sensorik verfügt.Anzeige