Projekt Control-VR

Dieses Thema im Forum "VR Technologie" wurde erstellt von TheDibbuK, 15. Juni 2014.

  1. "Hab das hier mal gefunden"

    [​IMG]


    Das Projekt Control-VR sucht derzeit über die Crowdfunding Plattform Kickstarter Unterstützer um ein alternatives Bedienkonzept für virtuelle Welten zu finanzieren. Das geplante System besteht aus zwei Handschuhen und einer Kamera, die wie eine Kette, um den Hals getragen wird. Damit soll es möglich sein die eigenen Hände, wie gewohnt, in einer virtuell dargestellten Welt zu nutzen. Bisher waren für Interaktionen konventionelle Eingabegeräten wie Maus und Tastatur oder ein Controller notwendig.

    Das Konzept ist interessant und scheint, den Videos der Kampagne nach zu urteilen, grundlegend zu funktionieren. Neben einigen unterhaltsamen Demos zeigen die Entwickler auch, wie eine mögliche Interaktion mit Webseiten funktionieren könnte. Der derzeitige Entwicklungsstand der Control VR weist allerdings auch die üblichen Probleme solch einer frühen Version auf. Beispielsweise spürbare Latenzprobleme oder fehlendes haptisches Feedback bei Interaktionen.

    Wer das Ganze selbst ausprobieren möchte, kann sich noch bis zum 5.7. an dem Projekt beteiligen. Nach derzeitigem Stand sollen bis zum 25.12.2014 alle Backer ihre Control VR erhalten haben. Für ein komplettes System, bestehend aus zwei Handschuhen und einer Kamera, müssen Backer derzeit 600 US-Dollar bezahlen. Die für die Finanzierung erforderliche Mindestsumme von 250.000 US-Dollar ist bereits erreicht.

    Quelle(n):
    Kickstarter-Kampagne

    NewsQuelle
     

    Anhänge:

  2. Ansich nett für Adventures und wissenschaftliche Anwendungen.

    Bei Spielen interagiere ich aber in der Regel mit einem Gegenstand - und das entweder virtuell (Shooter -> Waffe, Rennspiele -> Lenkrad, Simulation -> Steuerknüppel...) oder real (Tastatur, Maus, Joypad).

    Ausgerechnet beim Anwendungsszenario Nr. 1 bringt mir das aufgrund fehlender haptischer Rückmeldung also kaum etwas.
     
  3. In Control-VR hab ich momentan auch meine meisten Hoffnungen.
    Finger-Tracking ist denke ich, das Non-Plus-Ultra als VR-Eingabegerät.
    Das einzige was dabei allerdings noch fehlt, aber sicher noch gelöst werden kann, wäre halt diverses Feedback des Inputs.

    Was allerdings den Preis betrifft, muss man nicht wirklich drüber streiten, das dieser viel zu hoch angesetzt ist, mit 600$.
    Auch wenn man bedenkt, das es den Jungs eigentlich nicht allzu schlecht gehen kann.
    Wer das YouTube Universum kennt, kennt sicher auch die Video Game High School (VGHS) und der Name RocketJump wird sicher den einen oder anderen ein Begriff sein.
    Und kennt somit auch die Arbeiten von (Freddie Wong) freddiew und (Brandon J Laatsch) BrandonJLa.

    Aber ein muss man den Jung lassen, die kennen ihr Handwerk!
     
  4. Wie ich schon mal sagte bin ich in Sachen Fingertracking auch auf Kinect 2 für Windows gespannt, das bereits vorab bestellt werden kann, ehe bald auch der offizielle Verkauf startet. Ist mir so fast lieber als Handschuhe tragen zu müssen, so lange es keine anständige Lösung für ein haptisches Feedback gibt, dann machen Handschuhe auch einen Sinn.
     
  5. Das Fingertracking ist in der aktuellen Version des v2.x SDK leider nocht nicht wirklich vorhanden. In der letzten Juni-Woche soll es aber einen Hackathon in NYC geben, wo experimentelle Firmware getestet wird (near field 0.1-1m), was auch für effektives Fingertracking funktionieren kann.
    Optische Lösungen sind immer dann im Nachteil, wenn die Sicht der Kamera verdeckt ist, was beim 90° Dreh vor dem Rechner schon losgeht oder wenn die Hände hintereinander liegen.
    Das merkt man auch bei der Leap Motion, deren Skeletal-Tracking in der v2.x Beta wirklich VIEL besser geworden ist, aber Verdeckungen machen ihr weiterhin große Probleme.
     
  6. Sind halt beides keine Röntgengeräte. ;) Im Grunde kann man Verdeckungen nur durch ein zweites Gerät beheben, dass dann entsprechend platziert ist um dann beide Hände sehen zu können, wenn die andere Kamera sie nicht getrennt sehen kann.
     
  7. Oder wir verwenden ein nicht-optisches Verfahren, wo wir wieder bei STEM, PrioVR und dem Thema des Threads sind: "control VR" :)
    Natürlich ist es schöner, wenn vor der Anwendung keine Gerät "angelegt" werden muss, sondern man direkt loslegen kann. Für meinen Teil würde ich überlegen, ob ich dadurch einen Mehrwert habe. Und wenn dieser in einer reibungsloseren und exakteren Bedienung liegt, dann lege ich vorab auch ein ein System wie Control VR an, solange die erschwingliche Technik nicht mehr hergibt.
     
  8. Nun, wenn haptisches Feedback dabei wäre, dann wäre das auch kein Thema mehr, aber so stehen eben 600$ für das hier gegen 200 Euro für Kinect 2.0, da könnte ich 3 Kinects für kaufen und dann kann ich den Raum gut abdecken. ;)

    STEM hat eben auch wieder das Problem, dass man den Controller ja halten muss. Entsprechend wenig frei sind dann die Hände.
     
  9. Sofern Du die Skills hast die drei Kinects zu synchronisieren und dann auch in der Entwicklungsumgebung (Unity, UE4, o.ä.) effizient zu nutzen (Geschwindigkeit/Latenz) geht die Rechnung auf. Für die erste Kinect ist mir leider nichts derartiges bekannt, was sich "PlugNPlay" nutzen lässt.