Sehr praktisch für bestimmte Zwecke ist das von diesem Projekt ("Video Extrapolation using Neighboring Frames") entwickelte Verfahren - es zielt besonders auf immersive FOV Videos, also Videos aus der Ich-Perspektive, die z.B. für den Einsatz in VR-Headsets ein besonders breites Format aufweisen müssen. Um auch ältere Videos, die im klassischen 16:9 Format produziert wurden, dafür nutzen zu können, wandelt dieses Verfahren solche Videos ins Breitformat.
Das funktioniert, wenn durch eine horizontale Kamerabewegung ein größerer Teil des Raumes gezeigt wird - der Algorithmus rekonstruiert dann aus mehreren vorhergehenden und nachfolgenden Frames eines Schwenks ein extrabreites Videobild für das aktuelle Bild.