Drücken, Kippen, Quetschen: Was kommt nach Multitouch?
Der wohl in erster Linie als Trackpad-Produzent bekannte Zubehör-Hersteller Synaptics, experimentierte schon früh mit dem Einsatz der Multitouch-Technologie in Mobiltelefonen und widmet sich aktuell dem „next level“ der einfachen Endgeräte-Bedienung. Das jetzt vom PCMag veröffentlichte Youtube-Video wirft einen Blick auf die frisch veröffentlichten Forschungs-Ansätze und präsentiert einen Prototypen der sich nicht nur am Display berühren, sondern auch kippen, drücken und von hinten anstupsen lässt. Codename: Fuse. Was auf den ersten Blick Sinn-frei anmutet, könnte zukünftig die Ein-Hand-Bedienung von Mobiltelefonen erleichtern und sich auf dem Bau, beim Klettern oder im professionellen Bereich durchaus als praktisch erweisen. via iphoneclub.nl
In the last three years or so, aside from Apple, there really hasn’t been anyone other than possibly Google that has challenged the overall user interface design. So many of the designs you see out there are attempts, not even good attempts, at mimicking Apple’s user experience […]
Pfff ifun.de/iPhone postet video, dass auf dem iphone nicht abspielbar isr
wärme sensoren im Display
wären doch bestimmt auch machbar^^
Und wie willste den bedienen? Durch Anhauchen? ;)
kp war ja nur nen Vorschlag aber man könnte ihn
zum fiebermessen oder zum messen der Temperatur nutzen :)
oder für die eigene Körpertemperatur ;)
Ist zwar schon spät, aber ich meinte es ging um das Thema BEDIENUNG!!
Also wird wohl ein temperatursensor eher schlecht sein, es sei denn du hast die göttliche Gabe deine Körpertemperatur so schnell zu verändern, dass du damit dein iPhone bedienen kannst.
Naja, von hinten antippen schön und gut, aber es gibt nunmal keinen direkteren Befehl als etwas anzutippen, oder? Multitouch wird uns denke ich die nächsten Jahrzehnte noch begleiten.
Next Generation wäre für mich die vollständige Bedienung per Gedankenübertragung, wobei wir dann wahrscheinlich google endgültig die Seele verkauft haben dürften :D
gibts schon – zum zocken als tastaturersatz :D
Also das was im Video gezeigt wurde glaube ich nicht das sich sowas durchsetzen wird.
Gedankenübertragung dagegen werden wir noch miterleben, aber das dauert noch ein ordentlichen Moment. Aber dann wird in 20 Jahren sicherlich nur noch der Befehl als Gedanke genügen um eine Aktion auszuführen.
Vorher schätze ich auf eine Frontkamera die dank ihrer Auflösung in der Lage sein sollte dem Prozessor und der Software genügend Material zur Verfügung zu stellen worauf wir gerade auf dem Smartphone schauen und somit bei der Bedienung unterstützen. (durch Gestiken oder nur noch einen Tap auf einen Knopf als Bestätigung)
Aber quetschen, hinten rumdrücken, das wäre keine angenehme Bedienung.
oder wenn die Augenbewegungen vom gerät registriert werden und der Text beim Lesen automatisch mitscrollt.
beim klettern??? Da reicht doch der Beschleunigungssensor und das Micro …. sobald das Micro ein lautes: „Hoppla“ oder „Scheisse“ wahrnimmt und der Beschleunigungssensor daraufhin eine längere Phase der Beschleunigung im Bereich der Erdanziehungskraft feststellt = NOTRUF und automatisches Aufrufen der Erste Hilfe App vom Arbeitersamariterbund … :-) hihihi
Achtung: neues gameloft Spike im Store! Bridge odysee oder kp wie das geschrieben wird
Coole Sache, mal sehen was sich die Entwickler in Sachen Gerätehandling und Bedienung noch so einfalllen lassen
Im freien Fall Ist die Beschleunigung gleich 0 ;-)
Na die Zeit von „noch am Berg hängen“ bis zum Erreichen der entgültigen Fallgeschwindigkeit, reicht doch zum Messen aus. Was danach für Kräfte wirken, ist doch Wurscht :D Ich find die Idee cool.
Also so hoch musst du erstmal klettern, dass du die endgeschwindigkeit erreichst und in dem Fall hilft der Anruf auch nichts mehr…. Erstmal fallt man bei uns mit 9,81m/s^2 ;)
Ich glaube bei mur könnte sich diese Art der Bedienung nicht durchsetzen.
Fehlbedienungen durch versehentliches berühren oder drücken würden mich zum Wahnsinn bringen.
Ich finds so wie es ist super und vollkommen ausreichend.
Diese Video ist offensichtlich ein Fake!! Von wegen Prototyp! Schaut doch mal genauer auf das Display: An bestimmten Stellen, wo sich die Hand mit der Hülle bewegt, sieht man den Displaybereich „mitrutschen“ (siehe vorallem an der Stelle 0:25). Ab 0:35 scheint sich die Hand überhaupt nicht mehr zu bewegen (eindeutig nur ein Foto), trotz dass der Film läuft… Klarer Fall von nachträglicher Manipulation.
Allenfalls ist dies hier eine Studie (mit Computersimulation), doch von PROTOTYP zu sprechen finde ich schon ziemlich dreist… :O
Mann Mann, finde sowas echt zum kotzen, sorry….
Drücken ? Ja immer feste drauf da!
Mal abgesehen davon, dass ich Shimmi recht gebe, ist dieses Konzept zur Verdammnis bestimmt. Wer bitte will das Telefon quetschen um etwas zu aktivieren?!? Haben die schon jemals etwas von einer natürlichen Bedienung gehört? Das ist dabei das direkte Antippen/-klicken.
also das Video ist glaube ich nur ein Konzept-Mockup. Man sieht das das Display nicht sauer auf der Hardware sitzt und wackelt.
Vor der Gedankenstromanzapferei (was inzwischen schon bei Protesen grobmotorisch möglich ist, aber einiges an Training fordert) werden erst noch andere Konzepte den Markt fluten. Mal mehr mal weniger Sinnvoll.
Der nächste Schritt von Multitouch wird ein Distanz-Multitouch, das die Entfernung des zu Drückenden Fingers erfasst, sein. Kommt man in die Nähe eines Buttons bekommt der eine select Zustand.
Als nächstes wird der Distanz Multitouch erweitert mit einer Art Bewegungserfassung und man kann über den Bildschirm 3 dimensionale Bewegungen vollziehen, zB Daumen Zeigefinger greifen was und ziehen es nach oben, dadurch wird es Größer, oder man zieht/bewegt man Dinge/Funktionen zB von einem Ort des Displays zum anderen, ohne es zu Berühren.
Das nächste wird die dreidimensionale Projektion, in der gewisse Elektronen in der Luft/o2 durch elektrische Stimulation in verschiedenen Farben zum leuchten angeregt werden, man kann Devices mit einer holografischen Oberfläche dank dem Distanz Multitouch 3 Dimensional bedienen, so, als ob man in einem Buch blättert, dass einfach projeziert wird.
als nächstes fällt das Display weg und man hat Kontaktlinsen, die das ganze im Auge Darstellen, wenn man jemand anders was zeigen will geht das über funkübertragung, die Gestiken werden über das Auge erfasst und in der Kontaktlinse über die Körpereigene Stromspannung zu der Kontaktlinse transportiert, dort werden die Vorgänge bearbeitet. Die Stromversorgung geht über das Spannungsfeld, dass aus Kohlehydraten im Körper gewonnen wird. Als nächstes kommt dann die komplette gedankliche Steuerung, die Dimensionen annehmen wird, die jetzt noch nicht erdacht werden können.
so ich geh jetzt einen Schneeman bauen.
Wo muss ich unterschreiben? ;)
Nein Spaß, aber der mobile Holografische Einsatz wird wohl auch noch solange wie Gedankensteuerung brauchen. (Strom / Projektionsgenerierung)
Aber am Gedanke der räumlichen Erfassung vor dem Display ist schon was dran, das wird es wohl bald geben. Auch wenn am Anfang mehr die Kamera eher Gesten ausliest und Entfernungen schätzt.
Haha, das ist doch ein Fake! Der Displayinhalt wurde nachträglich auf den Dummy composed. Und das soll eine Meldung wert sein? Dann kann ich auch ein Gerät animieren, das Kaffee kocht und für mich joggen geht.