Dieses Projekt ("Handheld Multi-frame Super-resolution"), das aktuell schon als Funktion genutzt wird im Google Pixel 3, nutzt das natürliche minimale Zittern von aus der Hand geschossenen Bildern dazu aus, um aus einer Reihe schnell geschossener, verwackelter RAW Bilder eines Motivs ein Bild mit höherer Auflösung ("Superresolution") als die der Einzelbilder und einem geringeren Signal/Rauschabstand zu extrapolieren. Der Schritt des sonst üblichen Demosaicings wird durch die Kombination von R, G und B Pixeln ersetzt.
Das natürliche Zittern der Hand sorgt für einen Versatz von einigen Pixeln zwischen jedem Bild - ideal, um Superresolutionbilder daraus zu errechnen. Bei guter Beleuchtung reicht eine Serie von ca. 7 RAW-Photos aus, bei schlechterer Beleuchtung führen noch mehr Bilder zu besseren Ergebnissen mit deutlich reduziertem Bildrauschen.
Der Algorithmus läuft mit 100 Millisekunden pro 12-Megapixel RAW-Burst-Frame auf handelsüblichen Smartphones und bildet die Grundlage für die Super-Res Zoom-Funktion sowie den Night Sight Modus von Googles aktuellem Top-Smartphone, dem Google Pixel 3.