Vollständiger Artikel: http://www.heise.de/ct/ausgabe/2016...chte-Orte-in-die-Virtual-Reality-3167579.html"Virtual-Reality-Inhalte bestehen bislang entweder aus am Rechner erzeugten 3D-Modellen oder aus Fotos oder Videos, die in einer virtuellen Kugel kleben. Das deutsche Start-up Realities.io vermischt die beiden Formen durch Photogrammetrie – mit atemberaubenden Ergebnissen. ... Statt teurer Spezialkameras nutzt Finsterwalder für die Photogrammetrie-Aufnahmen eine konventionelle Vollformat-Systemkamera. Bei jedem Auslösevorgang erstellt seine Sony Alpha 7R II mehrere Bilder mit unterschiedlichen Belichtungen. Für einen durchschnittlichen Raum benötigt Finsterwalder 300 bis 400 solcher HDR-Fotos. Außer einem Stativ – und manchmal nicht mal das – braucht er keine anderen Hilfsmittel: „Ich habe inzwischen im Gefühl, welche Stellen ich mit wie viel Überlappung fotografieren muss“, erzählt Finsterwalder. Für einen Raum benötigt er je nach Umgebung zwischen einer halben bis mehrere Stunden. ...
Eine Photogrammetrie-Software baut aus dem Bilderstapel weitgehend automatisch ein 3D-Modell mit Texturen. Die Berechnung dauert einige Tage, trotz Intel-i7-4770K-Rechner mit einer Nvidia-Quadro-M6000-Profigrafikkarte. Anschließend läuft das 3D-Modell durch eine weitgehend automatisierte Pipeline unterschiedlicher Software-Tools. Ohne weitere Nachbearbeitung importieren die Realities-Macher das 3D-Modell schließlich in die Game-Engine Unreal 4 und reichern es mit interaktiven Elementen an. Die Textur in einem durchschnittlichen Raum wiegt unkomprimiert fast 1 GByte mit 120 000 mal 120 000 Pixeln. Hinzu kommen zum Teil Normal Maps, Mipmaps, trilineare Filterung und die aus mehreren Millionen Polygonen bestehende Geometrie. Dennoch läuft Realities auf einer GTX-970-Grafikkarte flüssig mit stabilen 90 fps. ...
Per virtuellem Lichtstrahl aus den Vive-Hand-Controllern kann man sich an beliebige Stellen teleportieren. Das Ganze funktioniert (nach etlichen Experimenten der Macher) komplett übelkeitsfrei – was daran liegt, dass man mit rasender Geschwindigkeit zur gewünschten Stelle fliegt, statt sich einfach hinzubeamen. Die Animation ist kaum wahrnehmbar, sorgt aber für Ruhe im Magen. Für das Benutzer-Interface ist Daniel Sproll zuständig, der sich auch das Hauptmenü ausgedacht hat: eine frei „anfassbare“ Erdkugel mit realistischen Texturen von der NASA. Alleine damit kann man sich schon eine halbe Stunde beschäftigen. ... Im Vergleich zu Realities können 360-Grad-Fotos einpacken – die Photogrammetrie-Ansichten wirken um mehrere Faktoren lebensechter. Die Technik bleibt, das ist sicher. ... Künftig sollen auch Freiwillige Photogrammetrie-Fotosets beisteuern; die Entwickler wollen bei der Bearbeitung assistieren. Irgendwann, so der Traum, können sich VR-Nutzer mit Realities durch die ganze Welt beamen. David Finsterwalder ist übrigens schon wieder unterwegs – bei Redaktionsschluss photogrammisierte er gerade im guatemaltekischen Dschungel. ...
Video zu dem oben zitierten und verlinkten Artikel über REALITIES.IO:
https://www.youtube.com/watch?v=B8FPunc_RTE
Einige allgemeine Infos zu Programmen und Workflows für die Erzeugung von 3D-Panoramen aus Fotografien: http://www.nikon-fotografie.de/vbulletin/praesentation-und-printing/229411-3d-praesentationen.html und ein Link zu einer "Comparison of photogrammetry software" (Automatisierungsgrad, frei erhältlich oder kostenpflichtig, Betriebssystem, etc., ohne Anspruch auf Vollständigkeit): https://en.wikipedia.org/wiki/Comparison_of_photogrammetry_software
In Ergänzung zu den dortigen Infos hier noch der aktuelle Stand der Photogrammetrie-Pipeline zur automatisierten Konvertierung von Fotos in texturierte 3D-Panoramen von Acute3D, seit 2015 ein Tochterunternehmen von Bentley Systems: https://www.acute3d.com/contextcapture/
Als Beispiel für "ContextCapture" von Acute3D habe ich nachstehend ein mit diesem Programm aus 19.000 Luftbildern automatisiert erstelltes 3D-Panorama von Marseille verlinkt. Oben rechts kann man bei den drei Querbalken als "Navigation mode" den "Pan mode" oder den "Orbit mode" wählen. Im "Pan mode" kann man zu den Stellen der Stadt fliegen, die man näher von oben betrachten möchte, also zum Beispiel zum alten Hafen. Im "Orbit mode" kann man dann die Stelle, über der man jeweils schwebt, aus verschiedenen Blickwinkeln betrachten. Je nach Rechner und Browser kann das Rendern der jeweils neuen Szene manchmal etwas dauern. Die Auflösung am Erdboden beträgt 10cm/pixel:
=> https://www.acute3d.com/s3c_resourc....0000&tX=730.6534&tY=-2170.0380&tZ=210.2262#/
Wie das nachstehend verlinkte Video zeigt, kann man die Auflösung der Gebäudedetails bei Bedarf weiter steigern - in diesem Beispiel auf 0,1 mm/pixel - wenn man die Luftbildaufnahmen mit Detailaufnahmen (Nahbereichsphotogrammetrie) kombiniert:
https://www.youtube.com/watch?v=85Bm7N3vFhU