VR ist dabei, das Filmemachen für immer zu ändern

VR ist dabei, das Filmemachen für immer zu ändern / Future Tech

Hollywood spricht von virtueller Realität. Auf der Oculus Connect-Konferenz im letzten Monat sprach ein ganzes Panel von Hollywood-Alumni über die Technologie und ihre Anwendungen im Filmemachen.

In der Zwischenzeit wiegen sich schwere Hitter in der Branche. James Cameron hasst es. David Attenborough macht eine Dokumentation darüber. Der jüngste (ausgezeichnete) Film Interstellar hatte eine VR-Erfahrung, die ihn vorstellte.

Virtuelle Realität ist eine neue Art der Kommunikation mit Ihrem Zuschauer, und viele Menschen, die über Erfahrung im traditionellen Filmemachen verfügen, finden die Möglichkeiten aufregend. Die virtuelle Realität ermöglicht es Regisseuren nicht nur, ein Fenster zu einer neuen Welt zu öffnen, sondern die gesamte Welt um den Zuschauer herum zu kontrollieren.

Was können Sie mit einer VR-Kamera tun??

Es braucht nicht viel Fantasie, um sich für die Idee von VR-Kameras zu interessieren. Filmemacher könnten das Publikum buchstäblich mit ihren Charakteren in Kontakt bringen und in spektakuläre, bizarre Welten eintauchen. Fotografen konnten ganze, eingefrorene Szenen einfangen, um von jedermann auf der ganzen Welt gelesen zu werden.

Dokumentarfilmer könnten Zuschauer an Orte bringen, die sie sonst nie besuchen könnten. Sie könnten eine VR-Kamera auf den Meeresgrund schicken und die Zuschauer mitten im versunkenen Ballsaal der Titanic stehen lassen. Naturdokumentationen könnten Zeit und Raum manipulieren, Benutzer zwischen Ameisen von der Größe eines Hundes platzieren oder zeitaufwändige Sequenzen erstellen. Die NASA könnte eine VR-Kamera auf einem Mars-Rover montieren und Millionen von Menschen erlauben, auf dem roten Planeten zu stehen.

Natürlich gibt es auch etwas profanere Anwendungen:

Einer der Schlüssel zum Erfolg der VR-Anwender in der VR-Branche sind stereoskopische Panorama-Katzenvideos.

- John Carmack (@ID_AA_Carmack) 6. November 2014

Live-VR-Videos könnten auch sehr ansprechend sein. Sportspiele könnten aus der Ferne besucht werden, VR-Kameras würden jedem Platz auf dem Platz geben. Sogar der Tourismus könnte virtuell sein.

Benutzer könnten einen einfachen Telepresence-Roboter mieten (vielleicht einen Segway mit einer VR-Kamera, der auf dem Lenker sitzt) und ihn überall auf der Welt steuern. Der Segway würde sein Video wieder live übertragen, sodass Touristen virtuell teilnehmen könnten “teleportieren” sich auf der ganzen Welt überall zu erkunden. Es scheint sicher zu sagen, dass VR die Welt verändern wird Warum Virtual Reality-Technologie Sie in 5 Jahren umhauen wird Warum Virtual Reality-Technologie Sie in 5 Jahren umhauen wird Die Zukunft von Virtual Reality umfasst die Kopf-, Augen- und Ausdrucksverfolgung sowie die simulierte Berührung , und vieles mehr. Diese erstaunlichen Technologien stehen Ihnen in 5 Jahren oder weniger zur Verfügung. Weiterlesen .

VR-Filmemachen haben jedoch viele Herausforderungen. Wie können Regisseure die Kamera bewegen und dabei den Betrachter komfortabel halten? Wie schneiden Regisseure Filme, ohne den Betrachter zu desorientieren? Wie stellen sie sicher, dass der Betrachter in die richtige Richtung schaut, um wichtige Plot-Ereignisse zu erfassen? Machen Nahaufnahmen sogar Sinn?

Die größten Probleme sind jedoch möglicherweise die praktischen: Wie zeichnen Sie Inhalte für die virtuelle Realität auf? Das Rendern von Live-VR-Inhalten für Spiele ist rechenintensiv, aber konzeptionell unkompliziert. Die Aufnahme des realen Lebens stellt jedoch einige ernste Herausforderungen dar.

Panoramakamera

Die einfachste (und im Moment die einzige weit verbreitete) Lösung ist die einfache Panorama-Videoaufnahme. Bei diesem Schema wird ein Ball herkömmlicher Kameras verwendet, um Video in jede Richtung aufzuzeichnen, und die Ergebnisse werden mit Software zusammengefügt, um eine nahtlose Videosphäre zu erzeugen. Dies ist ähnlich wie bei den Panoramen, die Sie erhalten 5 Tipps zum Aufnehmen von Panoramabildern mit Ihrem Smartphone 5 Tipps zum Aufnehmen von Panoramabildern mit Ihrem Smartphone Panoramabilder von atemberaubenden Landschaften sehen fast immer wunderbar aus, aber sie können sehr schwierig sein. Mit einem Smartphone gibt es verschiedene Techniken und Tricks, mit denen Sie die besten Ergebnisse erzielen können. Lesen Sie mehr mit Ihrem Telefon, aber gleichzeitig im Videoformat aufgenommen. Die Ausgabe des Prozesses sieht ungefähr so ​​aus:

Das ist unkompliziert und günstig. Sie können eine Panoramakamera für etwa 700 US-Dollar vorbestellen, es gibt jedoch Einschränkungen. Das Wichtigste ist der Mangel an Tiefe: Die Panoramen werden auf eine unendlich große Kugel gerendert, sodass die Parallaxe zwischen Ihren Augen sogar für Teile des Bildes, die wirklich Tiefe haben sollten, gleich Null ist, wie eine Person, die neben Ihnen steht.

Trotz dieses Mangels ist das Erlebnis von Panoramavideos immer noch überraschend kühl, insbesondere für Inhalte, die aus der Ferne stattfinden (Luftbildaufnahmen sind ein gutes Beispiel). Vor ungefähr einer Woche habe ich eine Oculus Rift-App erstellt, die ein virtuelles Cockpit im obigen Video darstellt. Die Ergebnisse sind überzeugend: Es fühlt sich an, als würde man in einem U-Boot fahren, das von Meeresschildkröten umgeben ist, die so klein sind wie kleine Gebäude.

Stellen Sie sich solche VR-Inhalte wie ein persönliches Super-IMAX-Kino vor, in dem Sie in der Mitte eines riesigen kugelförmigen Displays schwebend stehen. Das Raumgefühl, das sphärische Videos bieten, ist mit herkömmlichen Werkzeugen für das Filmemachen bereits unmöglich. Trotz der Einschränkungen wird dies wahrscheinlich die meisten VR-Videos in unmittelbarer Zukunft aussehen. Richard Attenboroughs Dokumentarfilm (“Die Eroberung der Himmel“) wird in diesem Format aufgenommen.

Stereo-Panoramakamera

Nehmen wir an, ein Regisseur ist mit der Einschränkung monoskopischer Panoramen nicht zufrieden. Eine naheliegende Erweiterung der Technologie ist die Einführung von nebeneinander liegender 3D-Technologie. Old-Time-Spaß: Erstellen von 3D-Bildern für das Brillen ohne Brille Old-Time-Spaß: Erstellen von 3D-Bildern für das Betrachten ohne Brille Glauben Sie es oder Nicht, Sie benötigen keine 3D-Brille, um realistisch wirkende 3D-Bilder (oder Filme) zu erleben. Sie müssen sich nur gehen lassen “crosseyed”. Im Wesentlichen schauen Sie sich zwei Bilder an, und durch… Weiterlesen. Dazu benötigt die Hardware zwei parallele Kameras, die in jede Richtung zeigen und um etwa 6,3 cm versetzt sind. Anschließend setzt die Kamera zwei Panoramabilder mit Software zusammen: eines für das linke und eines für das rechte Auge. Der Unterschied zwischen ihnen schafft die Illusion von Tiefe. Produkte, die diese Erfahrung unterstützen, sind verfügbar, obwohl sie teuer sind (995 $ plus zehn GoPro-Kameras)..

Samsung hat kürzlich angekündigt, diese Art von Inhalten stärker in den Mainstream zu bringen “Projekt jenseits”, eine VR-Stereo-Panoramakamera für das mobile Headset Oculus-Samsung Gear VR. Der aktuelle Prototyp hat den Formfaktor eines kleinen Pucks, verwendet 17 HD-Kameras und liefert ein Gigapixel pro Sekunde an Daten.

Bei 30 Bildern pro Sekunde führt dies zu Panoramabildern, die etwa 15 Megapixel pro Auge oder etwa 50.000 Pixel pro Auge pro visuellem Grad betragen. Die Preisinformationen sind immer noch ein Rätsel, und Samsung betont, dass dies kein abgeschlossenes Projekt ist. Das Vorschau-Video sehen Sie unten.

Stereo-Panoramen sind eindeutig eine bessere Erfahrung als ihre monoskopischen Brüder - große Dinge sehen groß aus, kleine Dinge wirken klein, Objekte haben Tiefe und Position und es fühlt sich viel mehr an, als wären sie dort. Die Erfahrung ist jedoch noch lange nicht perfekt. Wie John Carmack in seiner Keynote zu Oculus Connect beschreibt, haben Stereo-Panoramen viele Probleme.

“… Stereoskopische Panoramen, egal ob Standbilder oder Videos, sind absolut ein Hacker. Es gibt - wir wissen, was richtig ist und das ist nicht richtig. Was sie letztendlich tun, ist, dass Sie Scheiben von mehreren Kameras genommen haben, also geradeaus ist es die richtige Stereoanlage für Para-Weisen und dann ist es hier richtig. Aber das bedeutet, wenn Sie sehen, was für die Augen hier richtig war, aber Sie hier aus dem Augenwinkel sehen, ist es definitiv nicht richtig. Es ist nicht die richtige Ungleichheit für die Augen.

Und noch schlimmer, wenn Sie Ihren Kopf so drehen (rollt den Kopf), wird alles schlimm, weil er nur für die Augen eingerichtet ist. Das war also eine interessante Sache. Wir haben das Zeug, von dem wir im Grunde wissen, dass dies vergiftet werden kann. Dies kann eine wirklich schlechte Erfahrung sein, wenn die Menschen, die Sie viel Zeit verbringen, herumliegen. […]

Dies sind technische Probleme, die möglicherweise durch eine bessere Hardware gelöst werden könnten. Es gibt jedoch ein tieferes Problem: Was passiert, wenn Sie Ihren Kopf bewegen? Die Panoramen für beide Augen werden immer noch unendlich dargestellt. Wenn Sie Ihren Kopf physisch bewegen, werden Sie das Gefühl haben, dass sich die Welt mit Ihnen bewegt, insbesondere wenn sich Objekte in Ihrer Nähe befinden. Es gibt keinen einfachen Weg, um herauszufinden, wie ein stereoskopisches Bild aus einem neuen Blickwinkel aussehen würde.

Trotz dieser Einschränkungen sind Stereo-Panorama-Erlebnisse immer noch überzeugend. Die Gear VR-Plattform konzentriert sich auf diese Art von Erfahrung, da sie mit moderner Hardware erstellt und angezeigt werden können, ohne die Rendering-Funktionen der Hardware zu beeinträchtigen. Stereopanoramen werden wahrscheinlich der Goldstandard für die Produktion von VR-Inhalten sein, zumindest für die nächsten Jahre.

Tiefe Kameras

Eine Alternative zum Aufnehmen von zwei nebeneinander liegenden Bildern (wie bei herkömmlichen 3D-Filmen) ist das Erfassen sogenannter Tiefenbilder: Ein einzelnes Bild, das aus einer einzigen Perspektive aufgenommen wurde, enthält einen zusätzlichen Farbkanal, der den Abstand vom Objektiv speichert des fraglichen Pixels.

Wenn Sie das verstanden haben, kann Software virtuelle Kameras simulieren, die das Bild aus neuen Perspektiven betrachten, um sicherzustellen, dass von jedem Auge ein neues, korrektes Bild angezeigt wird. Es ist möglich, Panorama-Tiefenbilder zu erzeugen, die eine natürliche Bewegung und Drehung des Kopfes auf eine Weise ermöglichen, die bei Stereo-Panoramen nicht möglich ist. Es gibt einige Technologien, mit denen Sie diese Tiefenbilder aufnehmen können.

Zeit des Fluges

Die Version dieser Technologie, mit der Sie wahrscheinlich am vertrautesten sind, ist die, die im Kinect verwendet wird. Das Kinect V2 (die mit der Xbox One gelieferte Version) basiert auf einer sogenannten Time-of-Flight-Kamera.

Die Theorie ist hier unkompliziert: Time-of-Flight-Kameras sind Infrarotkameras, die nicht nur aufnehmen können, wo Licht auf den Sensor fällt, sondern auch wann Licht fällt auf den Sensor mit einer Genauigkeit von wenigen Mikrosekunden. Dies ist mit einer Farbvideokamera und einem Infrarot-Blitzlicht gekoppelt. Zu Beginn jedes Bilds blinkt der IR-Blitz und beleuchtet die Szene sehr kurz. Durch das Timing, wie lange jedes Pixel zur Beobachtung des Blitzes benötigt, kann die Kamera anhand der Lichtgeschwindigkeit abschätzen, wie weit sich jedes Pixel von der Kamera entfernt befindet.

Diese Technologie ist enorm leistungsfähig. Hacker haben einige unglaubliche Dinge getan 5 Microsoft Xbox Kinect-Hacks, die Sie umhauen werden 5 Microsoft Xbox Kinect-Hacks, die Sie umhauen werden Weitere Informationen dazu. Durch die Verwendung mehrerer Kinects in einer überlappenden Konfiguration kann es möglich sein, ein Panorama einer Szene mit einem genauen Tiefenwert für jedes Pixel zu erstellen, das in der virtuellen Realität gerendert werden kann, um ein immersives Erlebnis mit der richtigen Tiefe zu erzeugen.

Um einen Eindruck von den Ergebnissen zu erhalten, die dieser Ansatz liefert, sehen Sie sich dieses Video an, das nur die Tiefenkamera des Kinect V2 zeigt.

Dies ist ein qualitativ hochwertiges Tiefenbild - viele Details, saubere Kanten und nicht zu viel Rauschen. Es gibt jedoch einige Einschränkungen: Der größte Nachteil ist, dass der Kinect in diesem Beispiel eine Innenszene mit sorgfältig kontrollierten Lichtbedingungen aufzeichnet.

In realen Szenarien (und vor allem im Freien) können IR-Interferenzen durch direktes und indirektes Sonnenlicht sowie Glühlampen die Genauigkeit beeinträchtigen. Es gibt auch ein grundlegenderes Problem, nämlich dass die Flugkameras von der aktiven Beleuchtung abhängen. Das setzt einigen Grenzen, wie weit sie sehen können. Sie kommen auch mit transparenten und reflektierenden Oberflächen nicht gut zurecht. Da die Tiefenauflösung durch die Genauigkeit des Timings begrenzt ist, sind Flugzeitkameras für die Aufnahme kleiner Objekte nicht sehr nützlich, wodurch das Spielen mit Skalierung unmöglich wird.

Lichtfeld

Eine andere Technologie zum Erfassen von Tiefenbildern ist als Lichtfeldfotografie bekannt. Lytro Lichtfeldkamera: Snap Happy or Photo Gimmick? Lytro Light Field Camera: Snap Happy oder Foto-Gimmick? Von einem Mitarbeiter als "die erste große Änderung in der Fotografie seit der Erfindung der Fotografie" beschrieben, ist die Lytro-Lichtfeldkamera sicherlich ein revolutionäres Gerät. Die Kamera schüttelt die Dinge, indem sie einen Großteil der schweren… Mehr lesen .

Das funktioniert so: Bei der herkömmlichen Fotografie fokussiert das Kameraobjektiv einfallendes Licht auf einen Sensor. Jedes Element des Sensors erfasst die auftreffende Lichtmenge. Lichtfeldkameras verwenden jeweils einen speziellen Sensor “Pixel” ist eigentlich eine winzige Linse mit vielen Sensoren darunter. Dadurch kann die Kamera nicht nur messen, wie viel Licht auf jedes Pixel fällt, sondern auch den Winkel, in den das Licht einfällt.

Dies ist aus einigen Gründen nützlich. Die einfachste Anwendung besteht darin, dass Endbenutzer ein Foto nach der Aufnahme neu fokussieren können, wenn Sie ändern, wie dieses große „Lichtfeld“ abgetastet wird. Die Anwendung, die für VR interessant ist, ist, dass Lichtfeldkameras übrigens auch Tiefenkameras sind! Der Winkel des einfallenden Lichts von einem Objekt ist eine Funktion davon, wie weit das Objekt von der Linse entfernt ist, relativ zur Größe der Blende. Weit entfernte Objekte erzeugen nahezu senkrecht zur Linse liegendes Licht. Sehr nahe Objekte erzeugen nahezu paralleles Licht. Daraus ist es möglich, die Tiefenkarte eines Bildes (sehr genau) zu bestimmen.

Nachfolgend sehen Sie einige Ergebnisse einer frühen Lichtfeld-Videokamera und wie das Bild aus einem anderen Winkel neu projiziert wird.

Da es sich um einen passiven Prozess handelt, werden die Bereichsgrenze und die räumliche Genauigkeit durch die Auflösung und die Größe der Blende bestimmt. Das bedeutet, dass durch die Verwendung von Vergrößerungsobjektiven Lichtfeldtiefenaufnahmen von nahezu jedem Objekt mit jedem Maßstab unter allen Bedingungen gemacht werden können. Um ein Beispiel dafür zu erhalten, was mit größeren, genaueren Lichtfeldern möglich ist, können Sie dieses Video betrachten, das mehrere Frames einer Handlichtfeldkamera verwendet, um ein viel größeres Lichtfeld zu simulieren. Es generiert daraus eine ziemlich fesselnde 3D-Geometrie.

Lichtfeldkameras sind eine weitaus weniger ausgereifte Technologie als Flugkameras (derzeit gibt es nur eine Lichtfeldkamera auf dem Verbrauchermarkt, die keine Videoaufzeichnung unterstützt). Mit mehr Entwicklungszeit sollten Lichtfeldkameras auf lange Sicht jedoch ein viel robusteres Tiefenvideo-Erlebnis bieten.

Umgang mit Disokklusion

Bei Tiefenfilmen gibt es ein wichtiges Problem, das erwähnenswert ist: die Kopfbewegung. Ja, es ist möglich, Tiefenvideos in neue Perspektiven zu projizieren, und alle Pixel werden an den richtigen Ort gebracht. Das Tiefenvideo macht Sie nicht krank. Unglücklicherweise stellen sie ein neues Problem vor: Ablehnung.

Wenn Sie Ihren Kopf so bewegen, dass Sie einen Teil der Welt betrachten, der im Originalbild oder Panorama nicht sichtbar ist, entsteht ein böses visuelles Artefakt: ein Schatten. Um eine Vorstellung von dem zu bekommen, worüber ich spreche, schauen Sie sich dieses Video an:

In diesem Video hat ein Programmierer den Kinect gehackt, um ein Tiefenvideo dessen, was er im Weltraum sieht, zu rendern. Indem er die virtuelle Kamera bewegt, projiziert er die Szene aus verschiedenen Perspektiven.

Es ist eine erste Generation von Kinect, daher ist der Videofeed etwas unangenehm, aber die Ergebnisse sind ziemlich beeindruckend. Der größte Nachteil, der offensichtlich wird, wenn er die Kamera zu drehen beginnt, sind die Schatten in der Szene. Der Teil der Wand hinter seinem Körper hat ein riesiges, personenförmiges Loch, das aus ihm herausgeschnitten wurde: Der Teil, den die Kamera nicht sehen kann und für den keine Daten vorliegen. Diese schwarzen Schatten erscheinen in Tiefenpanoramen, sobald sich Ihr Kopf zu bewegen beginnt. Wie gehen VR-Kameras mit diesen Löchern um? Nun, es gibt einige Ansätze für dieses Problem:

Weitere Kameras

Die einfachste Lösung besteht darin, das Material einfach um Ecken und hinter Okklusionsflächen aufzunehmen. Dazu fügen Sie weitere Kameras hinzu - viel mehr. Um den Kopf auf etwa einen Meter in jede Richtung zu bewegen, muss die Kamera so erweitert werden, dass eine 2 Meter breite Kugel entsteht, die mit Kameras mit hohem Sichtfeld ausgestattet ist, so dass die Software jeden Blickpunkt innerhalb der Kamera synthetisieren kann Die Sphäre.

Dies ist der robusteste Ansatz, aber auch der unpraktischste. Eine zwei Meter lange Kamerasphäre ist keine schöne, tragbare Kamera, es ist eine Installation und eine teure. Dies kann für einige High-End-Hollywood-Produktionen praktisch sein, aber sicherlich nicht für die meisten realen Anwendungen. Unten sehen Sie einen Prototyp dieser Idee, der in Form einer Live-3D-Telekonferenzanwendung implementiert ist:

Rekonstruktion der Szene

Wenn der Video-Ersteller hauptsächlich einige dynamische Objekte vor einem statischen Hintergrund aufzeichnet, besteht ein anderer Ansatz darin, die Umgebung vor dem Filmen mit einer Tiefenkamera abzubilden und mit diesen Daten Löcher in die aufgenommenen Bilder zu füllen. Dies kann automatisch mit einer Technik namens SLAM (Simultaneous Location And Mapping) durchgeführt werden, bei der viele Tiefenbilder automatisch zusammengefügt werden, um eine vollständige 3D-Karte einer Szene zu erstellen. Die Ergebnisse sehen ungefähr so ​​aus:

Das funktioniert ziemlich gut, ist aber nicht für alle Situationen geeignet. Es ist nicht schwer vorstellbar, zu versuchen, eine Szene an einem belebten öffentlichen Ort zu filmen, wo ein Großteil des Hintergrunds aus Menschen besteht, die sich bewegen und einander verschließen. Das Aufnehmen einer einzelnen statischen Version dieser Szene zum Füllen der Löcher ist einfach nicht möglich. Darüber hinaus ist es zu Dokumentations-, Live-Video- oder Nachrichtenzwecken nicht praktikabel, die Umgebung im Voraus vollständig abzubilden.

Einfach nur Dinge machen

Der letzte Ansatz für das Problem besteht darin, in Fällen, in denen Sie nicht genügend Daten haben, auf die übliche Antwort zurückzugreifen: direkte Lügen.

Die Erkenntnis hier ist, dass der Zuschauer im wirklichen Leben nicht aufstehen und versuchen wird, um die Szene herumzulaufen. Sie werden sich hinsetzen, und was die Software wirklich korrigieren muss, sind kleine Abweichungen in der Haltung, die durch den Zuschauer verursacht werden, der sich in seinem Sitz neigt und sich verlagert - die Widersprüche werden einfach nicht so groß sein. Das bedeutet, dass die Daten, die zum Füllen der Löcher verwendet werden, nicht wirklich genau sein müssen, sondern lediglich plausibel aussehen müssen. Diejenigen von Ihnen, die mit Photoshops Content-fähigem Bildmaterial gespielt haben (oder dessen Konkurrenten Snapheal für Mac: Der Superheld Image Healer [Gewinnspiel] Snapheal für Mac: Der Superheld Image Heiler [Giveaway] SnapHeal für Mac (14,99 $) ist hier, um Ihre Meinung zu speichern Fotos, und das ist ein toller Job. In dieser Woche werden wir 25 Exemplare von Snapheal für Mac im Wert von insgesamt 375 US-Dollar vergeben.

Wie sich herausstellt, haben die Forscher einige ziemlich gute Algorithmen gefunden, um Löcher in Live-Videostreams in Echtzeit zu füllen. Nachfolgend einige Beispiele:

Stellen Sie sich vor, Sie möchten ein Tiefenbild in Ebenen zerlegen, nacheinander abziehen, um zu sehen, wo möglicherweise Schatten auftreten könnten, und dann diese Art von In-Painting-Algorithmen verwenden, um plausible Bilder zu erzeugen, um die Löcher zu füllen.

Dies ist etwas schwieriger als das einfache 2D-In-Painting, da der Algorithmus auch vernünftige Tiefenwerte für die Bohrungen erstellen muss, aber viele der gleichen Techniken können verwendet werden. Diese Ansätze funktionieren nicht in allen Situationen perfekt, aber solange diese Artefakte weniger aufdringlich sind als große Schwarze Löcher auf der Welt, gilt dies immer noch als Gewinn.

Wie lange dauert es, bis sie fertig sind?

Mit VR-Kameras ist Perfect noch mehr als alles andere der Feind des Guten.

Selbst mit der besten Technologie, die Geld kaufen kann, und mit sorgfältig geplantem Material zur Minimierung von Okklusionsfehlern, wären die Ergebnisse immer noch unvollständig. Glanzlichter sind beispielsweise helle Flecken, die auf glänzenden Oberflächen erscheinen und je nach Position des Kopfes in ihrer Position variieren, da das Licht in einem bestimmten Winkel reflektiert wird.

Spiegelnde Glanzlichter, die selbst im besten VR-Video aufgenommen wurden, erscheinen als eingebrannte weiße Flecken auf der Oberfläche und werden bei Bewegungen des Kopfes nicht in der Nähe von Objekten angezeigt. Das ist eine Einschränkung, die schwer zu umgehen ist. Außerdem ist das Ausfüllen von Okklusionsfehlern in komplizierten Szenen mit vielen sich bewegenden Objekten schwierig - perfekt zu machen, ist unmöglich und wird lange dauern.

Es wird Jahre und vielleicht Jahrzehnte dauern, bevor VR-Kameras auf dieselbe Weise wie traditionelle 2D-Filme ein perfektes Erlebnis bieten können. Das ist das Opfer, das Sie bringen, um ein grundlegend leistungsfähigeres Medium zu erfahren.

Mit allem, was gesagt wird, kommt in naher Zukunft ein paar wirklich coole Sachen die Pipe runter. Jede in diesem Artikel erwähnte Option kann wirklich wertvolle Erlebnisse schaffen. Samsungs Ankündigung von “Projekt jenseits” ist ein vielversprechendes Zeichen für die Zukunft.

Der Oculus Rift wird voraussichtlich irgendwann im Jahr 2015 auf den Markt kommen, und Verkaufszahlen in Millionen von Einheiten erscheinen nicht wie eine Strecke. Wenn die virtuelle Realität so abläuft, wie es scheint, wird rasch ein enormer technologischer Fortschritt erreicht.

Die Nachfrage nach Inhalten wird dazu führen, dass VR-Kameras besser und kleiner werden und billiger, um die Nachfrage zu befriedigen. Es wird wahrscheinlich nicht viele Jahre dauern, bis ein Gerät, das weniger kostet als ein neues Telefon und in Ihre Hand passt, eine überzeugende, komfortable VR-Aufnahme von allem bietet - und das wird sehr, sehr cool.

Was würdest du mit deiner eigenen VR-Kamera machen? Für welche Inhalte sind Sie am meisten aufgeregt? Lass es uns in den Kommentaren wissen!

Bildnachweise: Brillenkonzept via Shutterstock

Erfahren Sie mehr über: Virtual Reality, Virtual World.