Google-algoritme maakt vloeiende video van losse Street View-foto’s

Dat meldt MIT Technology Review. Om een vloeiende video te maken zijn ongeveer 24 beelden per seconde nodig. Als 24 Street View-foto’s achter elkaar zouden worden geplaatst, zou het eruitzien alsof straten zeer snel voorbij vliegen.

Een zelflerend systeem van Google kan extra beelden genereren die tussen twee losse foto’s passen, waardoor video’s vloeiend kunnen worden gemaakt en langzamer door omgevingen kan worden bewogen.

Dat is een ingewikkeld proces, want er is geen compleet 3d-model van Street View-locaties beschikbaar. De computer moet objecten laten zien vanuit een hoek die niet eerder is gefotografeerd en moet zelf bedenken hoe een situatie er dan uitziet.

Bekijk hoe de techniek werkt:

Om hun algoritme te testen verwijderden de Google-onderzoekers één Street View beeld en lieten ze de computer deze opnieuw genereren op basis van de beelden erna en ervoor. Zo kon het resultaat van de computer worden vergeleken met de echte foto, en kon de computer worden getraind.

Het systeem is nog niet perfect. Sommige objecten worden in de gegenereerde beelden wazig. Ook kost het nog erg veel rekenkracht om de video’s te maken, waardoor ze nog niet breed inzetbaar zijn.

This entry was posted in tech. Bookmark the permalink.

Leave a Reply

Your email address will not be published. Required fields are marked *

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>