Augmented Reality: SREngine Prototyp im Video
Das unten eingebettet Demo-Video zeigt einen ersten Prototypen der Augmented Reality Software „SREngine“ auf dem iPhone. Im semanticlog beschreibt dessen japanischer Entwickler, kanemura, das Projekt ausführlich. Wie auch die hier und hier vorgestellten AR-Applikationen ist SREngine noch weit davon entfernt ein praktischer Alltags-Begleiter zu werden. Das Demo-Video (Youtube-Link) macht jedoch einen ganz viel versprechenden Eindruck.
„SREngine stands for Scene Recognition Engine, which is a software engine to recognize static scenes of architectures, streets, posters, rooms, and so on. Due to the ability to specify what user is watching in real time in very strict manner, SREngine has applicable to wide range of AR-related applications. […] SREngine can recognize static scene only. Even shaded object is discriminated by the engine. Simple scenes cannot be recognized, such as a solid white wall.“
Erklärt mir bitte jemand, wozu das gut ist?
Versteh ich auch nicht… :()
Mir auch bitte.. Ich kann dem Video keine nützliche Funktion entnehmen
Würde für mich auch nur Sinn machen, wenn das Programm einigermaßen schnell auf eine Onlinebibliothek zurückgreifen könnte. Dazu wäre aber sicherlich mehr Rechenleistung und ein schnellerer Internetzugang, als der in aktuellen, mobilen Geräten, nötig.
Dann stelle ich mir das aber schon ganz praktisch vor, z.B. als Stadtführer, der einem dann informationen über beispielsweise historische Gebäude liefert oder das Shop-Angebot in größeren Einkaufsgalerien, ohne das ich diese betreten muss. Ein Kameraschwenk auf das Gebäude reicht und ich bekomme meine Informationen.
Des Weiteren könnte ich mir eine Nutzung in Kunstgalerien, Museen und anderen Austellungen gut vorstellen, aber sicherlich auch in nahezu jedem anderen Bereich, mehr oder weniger sinnvoll!
Das G1 hat dies bereits in Verwendung!! Mit Hilfe des Kompasses im G1, der GPS Daten und Google, ist das schon möglich!
edit: Wird so die Zukunft aussehen? Man geht in neuartiges Museum, zeigt mit der Cam auf ein Gegenstand und die Beschreibung wird dazu automatisch angezeigt? We will see…
Man kann sich z.B. so zu Sehenswürdigkeiten direkt die Informationen anzeigen lassen. Ist halt eine Datenbank dahinter notwendig mit den nötigen Daten. Daten werden dann über Internet geladen.
So ähnlich wie Shazam Musik erkennt.
@Moe: Du warst wohl schneller
An #1 – #2 – #3 wo ist denn Eure ganze Fantasie flöten gegangen?
:)
Aha, ok, cool…
Ob das auch mit Gesichtern funktioniert?!
Man könnte es z.Bsp. mit der „National Sex Offender Public Registry“ verbinden. Das iPhone entlarvt dann in der UBahn jeden Sexualverbrecher.
Besser jetzt?! Ich meine mit der Fantasie??
Haha und auch gleichzeitig eine National Sex Offer Registry anlegen, wo man dann direkt bei den leichteren Damen Preise sowie Erfahrungsberichte eingeblendet bekommt :)
Du hast ja wirklich ein interessantes Gebiet bzw. Interessenlage
Des is doch genial, um sich zuhause geheime nachrichten zu hinterlegen… !! :D… die findet keiner so schnell, der ned weis, wie^^
Viel Mühe hat man sich hier ja scheinbar gegeben. So eine APP schreibt sich nicht grad an einem einzigen Tag und wenn mit dem neuen Iphone eine neue bessere Cam kommt sollte es auch noch besser funktionieren aber mir selbst würd es auch nur dann gefallen wenn ich z.b. auf einen Hundertwasser halte und es mir eben sagt welcher es ist, wann gemalt… und wie eben schon jemand anmerkte ist das „mal eben“ wohl nicht möglich.
Irgendwie viel App mit wenig sinn. Respekt vor der Leistung der Programmierer. Es zeigt doch das man schon einiges machen kann.
Image relation & recognition
Augenmerke:
Keyboard
Automatic zoom mit direkter bildaufwertung
Tagging
Spinnt man das weiter, so kann man anhand von eigener verschlagwortung auch mehr über jmnd herausbekommen indem gemeinsame tags gefunden werden.
Ziemlich beeindruckend! Und das knowhow da drin ist gold wert.
spannend, wenn fiction von science eingeholt wird…. erinnert euch an das „Head up display“ vom Terminator…
Wenn jetzt noch die Prozesse ca. 100 mal schneller abliefen, sprich Infoverarbeitung und I-Net, dann wirds lustig!
Sowas ähnliches gibts schon im AppStore. Nennt sich Kooaba:
http://myblog-iphone.de/2009/0.....und-musik/
jein. kooba ist doch nur für filme. aber sicher haste recht, dass das als grundlage der idee iwo galt. doch kooba ist ansich ziemlich trivial, da hier die tonwertkurve ermittelt wird und diese mit einer datenbank abgeglichen wird.
sicher ist das auch bestandteil dieser engine ist, aber der unterschied besteht im tagging und, dass einzelne elemente, die in einem ganz bild gefunden wurden in anderen ergebnissen auch gefunden werden können.
warten wir mal ab, so wie es jetzt schon ausschaut, wird es kooba locker in den schatten stellen. und ich persönlich hätte gerne eine beta auf meinem tel.
Stimmt schon. Ist nicht damit zu vergleichen.
Freu mich auch schon drauf.
Ist Euch mal aufgefallen, wie die Buchstaben bei Tastenanschlägen bei ihm durchs Bild scrollen?
Das passiert bei mir nicht.
FW 3.0beta?
Bug oder Feature?
Stimmt…
Will das auch haben!
das meinte ich doch in meinem ersten Post unter ‚augenmerk‘.
Die engine hats in sich.
Wenns aber durch os3 kommt: geil! (-: