Objekt-Erkennung mit dem iPhone: DeepBelief-Framework für Entwickler
Der iPhone-Entwickler Pete Warden hat sein DeepBelief-Framework zum Download für alle interessierten Programmierer freigegeben und ermöglicht euch damit die Integration einer selbstlernenden Objekt-Erkennung in eure iPhone-Anwendungen.
DeepBelief setzt dafür auf den Einsatz künstlich-neuronaler Netze und implementiert eine Objekt-Erkennung nach Vorlage dieser Javascript-Umsetzung.
Wie funktioniert DeepBelief?
Ihr legt dem Framework 100 Bilder des Objektes vor, das ihr erkennen wollt. Anschließend füttert ihr den Code mit 100 weiteren Bildern, auf denen das zu erkennende Objekt nicht vorhanden ist. Der Rest ist Magie. DeepBelief sollte nun in der Lage sein das vom iPhone eingefangene Kamerabild in Echtzeit zu beobachten und sich immer dann zu melden (bzw. von euch programmierte Aktionen anzustoßen) wenn das gewünschte Objekt vom Sucher der iPhone-Kamera eingefangen wurde.
Wie ihr das Feature letztlich in euren Applikationen einsetzen wollt, hängt von eurer Kreativität ab. Derzeit sind die Projekt-Dateien eher akademischer Natur. Auf dem iPhone 5s benötigt DeepBelief nur rund 300 Millisekunden und weniger als 20MB Arbeitsspeicher zum trainierten Erkennen eurer Objekte.
DeepBelief im Demo-Video
(Direkt-Link)
Pete Warden zu seiner Motivation:
That’s why I’ve decided to release DeepBeliefSDK, an iOS version of the deep learning approach that has taken the computer vision world by storm. In technical terms it’s a framework that implements the full Krizhevsky stack of 60 million neural network connections, with a customizable top layer inspired by the Decaf approach. […] I built it so people can easily experiment with a classic deep belief approach to image recognition themselves, to understand both its limitations and its power, and to demonstrate that the algorithms are usable even in very restricted client-side environments like web browsers.
Das Video ist ja der Hammer :D
Aber nette Funktion auf jeden Fall, mal sehen, wer daraus was schönes basteln kann :)
Find’s geil! Die Katze ist auch cool :D
Was ein unnötiger Krempel xD
(Nur meine Meinung, irgendwer hat bestimmt Verwendung dafür)
Ich glaube das Video ist einfach nur ziemlich blöd. Die Sache an sich klang im Text eigentlich ganz interessant. Aber das Video ist einfach nur schlecht.
Was soll an dem Video blöd sein? Es demonstriert perfekt, was das System kann. Ich find’s gut!
Das demonstriert es eben nicht. In dem Video hat es mit dieser komischen Katze einfach nicht funktioniert. Es hat auch super oft gepiept, wenn er das iPhone eindeutig nicht in Richtung Katze gehalten hat. Das merkt man auch daran, wie es geschnitten ist. Er demonstriert zwar, wie es die Katze erkennt, aber das Gegenteil, also wenn das iPhone in eine andere Richtung guckt, hat er nur ganz kurz gezeigt und da hat es auch einmal gepiept.
Abgesehen davon ist das Beispiel auch ziemlich sinnlos. Wenn man sowas demonstrieren will, kann man sich schonmal ein sinnvolleres Beispiel suchen und nicht so ein Hipster-Cat-Content Quatsch.
Ja, ein Computer, der innerhalb weniger Minuten das Sehen lernt, ist unnötiger Krempel.
Bitte geh wieder Angry Birds spielen.
Mauz…
Das muss man mal so sehen:
Neurale Programmierung hat eine große Zukunft vor sich. Ich sahe nur KI.
Betreff des hier gezeigten Projektes sage ich nur Fernsehserie ‚Person of Interest‘.
Was glaubst Du, kann man mit Informationen alles machen, die man bestimmten Personen aufgrund einer optischen Erkennung über eine x-beliebige Kamera zuordnen kann???
Sehr interessant finde ich. Vielleicht kann man damit blinden und sehbehinderten Menschen irgendwie weiter helfen. Eine App die vielleicht die Ampel erkennt… Sind ja noch nicht alle umgerüstet. Oder so was in der Richtung…
Schade dass die Sache auf soviel Unverständnis stößt. Ich als blinder wüsste einiges damit anzufangen.
Super Sache. Die Demo ist durchaus unterhaltsam.
Wenn irgendwann mal eine app raus kommt, die Touristen hilft berühmte Bauwerke zu erkennen und Infos darüber zu liefern, klingt die Idee nicht mehr so dumm.
Gibt’s doch schon.