Utvikling av løsning for virtuell visning
Oppdatert 28. november 2024
Prosjektet Fysiske og virtuelle visningsrom har behov for en enkel måte å vise frem representasjoner av ulike gjenstander på skjerm. Ved hver skjerm skal det være mulig å velge mellom (forslagsvis) 6-8 videoer. Videoene viser frem objektene som en predefinert, kontinuerlig loop. Brukeren skal selv kunne velge mellom videoene, stoppe disse på et hvilket som helst tidspunkt
Grensesnitt for avspilling av video
Valgt video kommer opp i fullskjerm. Startes og stoppes ved trykk på knappene ved siden av joysticken. Dersom brukeren ikke foretar seg noe bør det komme opp en infoboks etter noen sekunder. Ved inaktivitet i f eks 20 sekunder endres skjermbildet automatisk til meny for valg.
Joysticken lar brukeren gå frem og tilbake i videoen. Ideelt sett ned til frame for frame.
Konseptet innebærer at videoene er sømløse looper, dvs at når en scroller seg til begynnelse eller slutt fortsetter scrollingen automatisk ved henholdsvis slutt (når brukeren har scrollet bakover til “start”) og start (når brukeren har scrollet fremover til “slutt”).
Funksjon for å komme tilbake til meny for valg legges til en egen knapp.
Funksjonalitet for å vise informasjon om verkene
Når en video spilles av, må det finnes en funksjon for å hente opp tekstinformasjon om verket ved å trykke på en dedikert knapp. Dette kan være i et helt fast format med “Tittel”, “Opphavspersoner” og “Beskrivelse”. Hvordan lagring av tekstene løses vil avhenge av valgt løsning for å hoste videofilene.
Funksjon for å hente opp informasjon
Denne funksjonen bør kunne aktiveres under avspilling av hver enkelt video, da som et tekstlag på gjennomskinnelig bakgrunn, over videoen. Ideelt sett bør teksten kunne ligge oppe, mens brukeren bruker joysticken for å spole i videoen.
Produksjon av videoene
Så langt har vi forsøkt med en produksjonsflyt der objekter filmes av, og lagres som en videofil. Denne videofilen konverteres til en tredimensjonal modell ved hjelp av såkalt NeRF-teknologi. Teknologien innebærer en nyvinning innenfor fotogrammetri, og gjør prosessen langt enklere enn for lun kort tid siden. En NeRF-modell gir mulighet til å angi en virtuell kamerabane, en brennvidde for den virtuelle linsen, bestemme varigheten av videoen osv. På den måten kan vi vise ulike objekter på skjerm, med høy kvalitet, samtidig som produksjonen ikke krever spesialkompetanse.
En porsjon kunstig intelligens gjør at videoene som skapes ved hjelp av Lumalabs fermstår som helhetlig. Statusen ovenfor er i dette tilfellet filmet av med et mobilkamera, der statusens plassering gjør at det ikke er mulig å dekke hele figuren. Dette ser vi i selve 3D-modellen, til høyre, der vi tydelig ser at det mangler informasjon.
Ved skanning av objekter der vi har bedre kontroll på opptakssituasjonen, kan vi eliminere dette problemet. Dette eksemplet synliggjør samtidig at teknologien er robust og i stand til å kompensere for relativt dårlige råopptak, noe som gjør det enklere å la brukerne selv stå for opptakene.
Teknologien gir mange tilpasningsmuligheter. Blant annet kan en enkelt isolere et objekt fra omgivelsene.