Es wird eine interessante Alternative für Neugierige und ausgewählte Games darstellen.
Der Vorreiter zum massenmarkttauglichen Holodeck

Ich hoffe wir erleben das noch.
Moderator: wynk
Quelle: http://www.maniac-forum.de/forum/pxmboa ... id=3410411"Positional Tracking"
Das Oculus Rift (DK1) unterstützt bisher nur 3 Freiheitsgrade (3DOF) und zwar die Blickrichtung des Users:
[ externes Bild ]
Translational bzw. Positional Tracking bedeutet, es wird nicht nur die Blickrichtung erfasst, sondern jetzt auch die relative Position. Dadurch erhöht sich die Anzahl der Freiheitsgrade um weitere 3 (oben/unten, rechts/links, vorne/hinten). Das Bild hier zeigt es eigentlich recht gut:
Das ist vor allem wichtig, weil wir diese Bewegungen praktisch die ganze Zeit mehr oder weniger unterbewusst machen, also nicht nur durch eine extreme, bewusste Verschiebung des Kopfes um irgend etwas besser erkennen zu können. Das Gehirn benutzt die kleinen Parallaxenverschiebungen vor allem, um mehr Tiefeninformation aus dem Bildern zu berechnen. Außerdem wirkt das Tracking der gefürchteten Simulator Sickness entgegen die uns immer dann befällt, wenn unserer visueller Eindruck nicht mit den realen Bewegungen zusammenfallen (für freies Umherlaufen nützt das aber AFAIK auch nur wenig).
Der neue Prototyp nützt dafür eine Serie von Infrarot-LEDs an der Außenseite des Gehäuses die von einer Kamera getrackt werden:
[ externes Bild ]
Das ist ein ziemlich simpler Ansatz und funktioniert recht gut wenn die Kamera schnell genug ist (120 fps aufwärts sollten es mindestens ein). Da die absolute Helligkeit der LEDs bekannt ist, kann die Enfernung aus der gemessenen Helligkeit recht simpel berechnet werden. Wenn man jetzt noch leicht verschiedene Lichtfarben einsetzt dann ist auch die Trennung der LEDs nicht mehr so aufwändig. Leider braucht das Ding dann auch zwingend LEDs auf der Rückseite sonst verliert man das Positonal Tracking wenn man den Kopf zu sehr wendet. Bin nicht so ganz glücklich mit dieser Lösung muss ich zugeben. Allerdings kann sich das bis zur Consumer Version noch ändern.
"Low Persistance"
Das hier ist deutlich schwerer zu erklären. Schaut euch am besten mal das hier an:
http://testufo.com/#test=framerates
Während das obere UFO flüssig läuft (60 fps), ruckelt das untere Ufo deutlich (30 fps). Das Ruckeln ist hier aber gar nicht mal das eigentliche Problem. Man sieht es nämlich eigentlich sogar doppelt und sehr unscharf. Selbst die 60 fps UFO beheben das Problem nicht vollständig. Das UFO bewegt sich jetzt zwar flüssig, allerdings wirkt es immer noch unschärfer als eine stillstehende Grafik.
Oft denken jetzt viele, das hätte irgendwas mit der Schaltzeit des Displays zu tun, also die Zeit die benötigt wird um die Farbe der einzelnen Pixel zu ändern. In erster Linie entsteht aber diese Unschärfe erst in den Augen. Auch hier mal eine passende Demo:
http://testufo.com/#test=eyetracking&pa ... eckerboard
Sieht man das stillstehende Ufo an, so besteht der Hintergrund nur aus weißen Streifen vor schwarzem Hintergrund. Folgt man aber der Bewegung des zweiten Ufos mit den Augen so sieht man ein Schachbrettmuster. Spätestens jetzt ist klar, dass hier etwas nicht stimmt (Erklärung folgt unten).
Dafür gibt es zwei Lösungsansätze:
a) Synthetische Zwischenbilder. Man steuert das Display mit einer viel höhrere Frequenz an (bspw. 120 Hz) und erzeugt die fehlenden Bilder per Software:
[ externes Bild ]
Das funktioniert bei hochwertigen Beamern oder TVs recht gut, wenn die Algorithmen mitspielen (je kleiner der Unterschied zwischen den "echten" Bildern, umso besser natürlich). Bei Computerspielen würde das aber zusätzliche Latenz verursachen.
b) Black Frame Insertion
[ externes Bild ]
Hier wird das Bild nur für die Hälfte der Zeit angezeigt und dazwischen auf schwarz geschaltet. Dafür braucht man nicht unbedingt ein passendes Signal sondern es reicht, wenn man einfach die LED-Hintergrundbeleuchtung des Panels an- und wieder ausschaltet. Die Helligkeit wird während der AN-Phasen verdoppelt, damit wirkt das Bild insgesamt wieder gleich hell.
Dafür braucht man natürlich ebenfalls ein 120 Hz Display. Trotzdem hier mal eine Demo die auch auf einem 60 Hz Display das Prinzip zeigt:
http://testufo.com/#test=blackframes&co ... qualizer=1
Beide Ufos ruckeln wie gehabt mit 30 fps. Das untere Ufo wirkt allerdings nicht so unscharf wie das obere durch die eingefügten Schwarzbilder. Mit 60 fps wirkt der Effekt noch dramatischer, allerdings bräuchte man dann eben ein 120 Hz Display zur Demonstation.
Der neue Oculus Prototyp geht noch einen Schritt weiter. Er fügt nicht einfach nur schwarze Frames ein sondern zeigt fast nur schwarz. Das eigentliche Bild wird nur für weniger als 1 ms (!) kurz sehr hell angezeigt. So kann das Auge der Bewegung über das Display folgen, es "verschmiert" aber nicht über die Netzhaut wie bei einem normalen "sample-and-hold"-Display das einen Frame über die gesamten 16 ms anzeigt.
Bei VR ist das deshalb so dramatisch, weil man sich ja ständig umschaut. Wenn man nun z.B. diesen Punkt hier • betrachtet und den Kopf gleichzeitig bewegt dann haben unsere Augen keine Schwierigkeiten, den Punkt trotzdem zu fixieren und bewegen sich automatisch exakt gegenläufig der Bewegung - und zwar abhängig von der Entfernung des fixierten Punkts (was an sich schon krass ist). Bewegt man nun den Kopf mit einem Display davor, dann bedeutet das, dass ein "eigentlich" fester Punkt in der Szene sich über das Display bewegen muss weil in Bewegungsrichtung des Kopfes neue Bildbereiche ins Display "geschoben" werden - genau die gleiche Situation wie bei den UFOs im Test also.
Kurz gesagt: Ein Frame ist eigentlich nur einen unendlich kurzen Zeitabschnitt wirklich "gültig". Die gesamte Zeit danach bis zum nächsten Frame ist das aktuelle Bild veraltet und damit "an der falschen Stelle". Weil das Auge aber jeder Bewegung folgt, schmiert das Bild über die Netzhaut. Deshalb sollte man es nur extrem kurz anzeigen. Macht man das oft genug, nimmt man auch kein Flimmern mehr wahr.
Wer sich noch mehr für die Hintergründe interessiert, Michael Abrash (Valve) hat dazu vor einiger Zeit mal einen exzellenten Artikel verfasst: http://blogs.valvesoftware.com/abrash/d ... ng-judder/
Aufgrund der massiven Immersion, die diese Geräte bieten.gunman hat geschrieben: Aber wie kommt ihr darauf, dass eine fette Brille die Zukunft des Zockens wird?
Wieder so eine Formulierung. Konkret "das" Ding wird natürlich nicht sofort sämtliche konventionellen Bildschirme ersetzen, so wie die ersten Automobile ja auch nicht gleich mit ihren ersten Modellreihen die Pferdekutschen verdrängt haben. Aber Weiterentwicklungen des Konzepts der VR (unterschiedliche Bilder für beide Augen bei gleichzeitiger Berücksichtung der Körper-/Kopf-/Augenbewegungen) wird das Gaming revolutionieren.gunman hat geschrieben: Imo wird das Ding nur ein Nischendasein für Enthusiasten führen.
Und um die geht es ja schon gar nicht mehr.That Guy hat geschrieben:Ich hab ja die normale Oculus Dev Variante getestet und die war schon ziemlich geil. Aber so gehyped wie du, ist etwas übertrieben.²