Keskustelua yliskaalaustekniikoista ja frame generaatiosta Nvidia Dlss, Amd Fsr, Intel Xess, Lossless Scaling

AI ei simuloi mitään. Se koittaa jäljitellä sitä, mille realistisesti valaistu kuva näyttää, eikä osaa kunnolla huomioida, mitä valonlähteitä siinä kuvassa oikeasti on. Tällä hetkellähän tässä käytetään liikevektoreita ja väri dataa pohjana, mikä ohjaa sitä AI:n teoksia. Ehkä tulevaisuudessa tähän saadaan lisää inputteja, mitkä ohjaa tuota, jolloin ylimääräisiä valonlähteitä ei ehkä tule mukaan.

Onhan tämä siinä mielessä takapakkia, että mennään oikeasta valon simuloinnista taas feikkaamiseen, mutta eihän tätä ole mikään pakko käyttää. Varmasti joissain peleissä, kuten Star Field, tästä voi olla oikeasti iso hyöty, jos haluaa tavoitella realistisempia yleisilmettä peliin, välittämättä siitä, onko se skenen valaistus ihan prikulleen simuloitu niiden valonlähteen mukaisesti.
Noniin, ja jos kerran tekaistu valaistus on ihan ok, niin miksi ajaa path tracingia ylipäänsä? En ymmärrä, etenkin jos konteksti otetaan edellisestä viestistäsi:
Tämän teknologian tarkoitushan on tuoda sitä korkean tarkkuuden path tracingin tuomaa realisistisuutta kuvaan jo nyt
Tämä ei lisää tai tuo korkean tarkkuuden path tracingin realistisuutta. Se vaatisi sitä path tracingia tai parempaa denoiseria.
 
Noniin, ja jos kerran tekaistu valaistus on ihan ok, niin miksi ajaa path tracingia ylipäänsä? En ymmärrä, etenkin jos konteksti otetaan edellisestä viestistäsi:

Tämä ei lisää tai tuo korkean tarkkuuden path tracingin realistisuutta. Se vaatisi sitä path tracingia tai parempaa denoiseria.

Enkö juuri sanonut, että se antaa yleisilmeeltään paremman tason path tracingiä muistuttavan kuvan. Ei se ole tietenkään sama tai yhtä hyvä asia, kun oikeasti korkeatasoinen path tracing, joka oikeasti simuloi sen valon.

Sitä olen itsekkin miettinyt, että meneekö path tracing siellä pohjalla ihan hukkaan tämän kanssa, vai osaako se hyödyntää sitä kuitenkin jotenkin? Tämä DLSS5 toimii kuitenkin vain screen spacessa 2D tasolla.
 
Tämä ei lisää tai tuo korkean tarkkuuden path tracingin realistisuutta. Se vaatisi sitä path tracingia tai parempaa denoiseria.
Tämä monin paikoin myös vähentää realismia (tai ainakin taitelijan ajatusta siitä) vaikka jätettäisiin huomiotta studiovalaistuspuoli. Monessa esimerkissä on nostettu esiin DFn videolta kohtaus, jossa hahmolla on lippis ja valaistus tulee selvästi ylhäältä luoden lipasta varjon kasvoille. DLSS5:n kanssa ko. varjoa ei ole ja valaistus tulee ties mistä. Ja toinen on tosiaan sumujen katoaminen tyystin
 
Sitä olen itsekkin miettinyt, että meneekö path tracing siellä pohjalla ihan hukkaan tämän kanssa, vai osaako se hyödyntää sitä kuitenkin jotenkin?
Kyllä se sitä hyödyntää varmasti. Osaa maskata sen pohjalta että mikä alue kuvasta slopataan.
Enkö juuri sanonut, että se antaa yleisilmeeltään paremman tason path tracingiä muistuttavan kuvan.
Miltä tiedät että se antaa paremman tason path tracingia muistuttavan kuvan? Eikö se vaatisi sitä paremman tason path tracingia, jotta vertailu on mahdollista ja moista kehtaisi laukoa täällä? Voi ihan hyvin pitää paikkansa että rajattomalla sädebudjetillakin se nykyinen pt olisi lähempänä kuin tämä slopattu versio?
 
Kyllä se sitä hyödyntää varmasti. Osaa maskata sen pohjalta että mikä alue kuvasta slopataan.

Miltä tiedät että se antaa paremman tason path tracingia muistuttavan kuvan? Eikö se vaatisi sitä paremman tason path tracingia, jotta vertailu on mahdollista ja moista kehtaisi laukoa täällä? Voi ihan hyvin pitää paikkansa että rajattomalla sädebudjetillakin se nykyinen pt olisi lähempänä kuin tämä slopattu versio?

Mikä tässä nyt taas on niin vaikeeta. AI:n avulla voidaan nyt luoda hyvin aidon näköisesti valaistuja materiaaleja/pintoja reaaliajassa, mutta valaistus on AI:n tulkinta eikö välttämättä kunnioita pelimaailman valonlähteitä. Pystytään luomaan näennäisesti elokuva tason PT:n tarjoamaa lookia, materiaalien ja pintojen valaistuksen osalta, vaikka se ei olisikaan maailman valonlähteitä tarkasti kunnioittavaa, kun sitä ei simuloida.

Tuo on ainakin omasta mielestä tämän DLSS5:n tavoite. Se että miten hyvin se toteutuu on sitten eri asia.

Varmasti rajattomalla säde budjetilla päästään samaan ja parempaankin yleisilmeeseen, ja kaikkien pintojen valaistus mätsäisi täydellisesti maailman valonlähteen kanssa. Tällä hetkellä ei vaan ole rautaa joka sitä jaksaa pyörittää tarpeeksi nopeasti reaaliajassa.
 
Viimeksi muokattu:
AI:n avulla voidaan nyt luoda hyvin aidon näköisesti valaistuja materiaaleja/pintoja reaaliajassa
Mistä tiedät että ne on aidon näköisesti valaistu? Eikö siihen tarvita vertailukuva siitä loppuun asti lasketusta versiosta?
Pystytään luomaan näennäisesti elokuva tason PT:n tarjoamaa lookia, materiaalien ja pintojen valaistuksen osalta, vaikka se ei olisikaan maailman valonlähteitä tarkasti kunnioittavaa, kun sitä ei simuloida.
Joo, jotain lookia voidaan luoda, tarkemmin sanottuna slop lookia. PT:tä ei. Eikä oikeastaan PT lookiakaan (ellei voida osoittaa että tossa skenessä säteitä lisää ampumalla se lopulta muodostaisi ominaisuuksiltaan vastaavan kuvan).

Tuossa olisi ollut nvidialla nyt miljoonan dollarin paikka, näyttää kuinka heidän näyttis PT:t maksimissa tunnin jauhamalla olis tehny hyvin tarkkaan saman ku superslopperi tekee n. 30 millisekunnissa. Jostain kumman syystä moista ei haluttu tehdä, vaan hallusinoidaan paskaa ja vedetään kontrastit maksimiin, eikä verrata referenssiin.

Ei ole mitään syytä olettaa että tuo superslopperi arvaisi lähemmäs sen todellisen PT kuvan kuin mitä heidän nykyinen rajallinen PT toteutus laskee.
 
Mistä tiedät että ne on aidon näköisesti valaistu? Eikö siihen tarvita vertailukuva siitä loppuun asti lasketusta versiosta?

Joo, jotain lookia voidaan luoda, tarkemmin sanottuna slop lookia. PT:tä ei. Eikä oikeastaan PT lookiakaan (ellei voida osoittaa että tossa skenessä säteitä lisää ampumalla se lopulta muodostaisi ominaisuuksiltaan vastaavan kuvan).

Tuossa olisi ollut nvidialla nyt miljoonan dollarin paikka, näyttää kuinka heidän näyttis PT:t maksimissa tunnin jauhamalla olis tehny hyvin tarkkaan saman ku superslopperi tekee n. 30 millisekunnissa. Jostain kumman syystä moista ei haluttu tehdä, vaan hallusinoidaan paskaa ja vedetään kontrastit maksimiin, eikä verrata referenssiin.

Ei ole mitään syytä olettaa että tuo superslopperi arvaisi lähemmäs sen todellisen PT kuvan kuin mitä heidän nykyinen rajallinen PT toteutus laskee.

Etkö ymmärrä eroa simuloinnin ja lookin välillä. AI voi luoda kuvan, joka näyttää sille, että on ammuttu tsiljoona sädettä ja hemmetisti bounceja, jolloin se materiaali/pinta voi näyttää näennäisesti aidommalle, vaikka sen valaistus ei vastaisi kunnolla sen pelimaailman valaistusta siinä tilanteessa. Eli se ei näytä välttämättä totuudenmukaiselle ympäristön valaistukseen kohden, mutta muuten aidommalle. Tällä tavallahan peligrafiikka on feikattu ikuisuudet. Luodaan illuusio "aidosta".

Tekoälyä on treenattu milettömällä määrällä dataa, mille eri materiaalit näyttää erilaisissa valaistuksessa, joten tottakait se pystyy luomaan hyvin aidon oloisesti valaistuja pintoja/materiaaleja.
 
Etkö ymmärrä eroa simuloinnin ja lookin välillä.
Etkö ymmärrä miltä ns. slop look näyttää?
chatgpt vaan auki ja sinne "make it more realistic" muutaman kerran.

Toivottavasti ymmärrät että slop look ja PT look on varsin eri asioita, eikä niitä kannata sekoittaa toisiinsa. PT lookissa olennaista on että valot vaikuttavat tulevan loogisista suunnista, ja esim. ei ole samanaikaisesti kahteen suuntaan piirtyviä varjoja ulkona suorassa auringonpaisteessa. Ns. slop look taas sallii tuollaisen meiningin ja on sille suorastaan tyypillinen ominaisuus.
Tekoälyä on treenattu milettömällä määrällä dataa, mille eri materiaalit näyttää erilaisissa valaistuksessa, joten tottakait se pystyy luomaan hyvin aidon oloisesti valaistuja pintoja/materiaaleja.
Onko tälläisestä jotain esimerkkejä heittää? Mielellään ne referenssit siihen viereen niin tiedetään että oliko ne AI:n tuotokset aidon oloisesti valaistu vai ei.
 
Etkö ymmärrä miltä ns. slop look näyttää?
chatgpt vaan auki ja sinne "make it more realistic" muutaman kerran.

Toivottavasti ymmärrät että slop look ja PT look on varsin eri asioita, eikä niitä kannata sekoittaa toisiinsa. PT lookissa olennaista on että valot vaikuttavat tulevan loogisista suunnista, ja esim. ei ole samanaikaisesti kahteen suuntaan piirtyviä varjoja ulkona suorassa auringonpaisteessa. Ns. slop look taas sallii tuollaisen meiningin ja on sille suorastaan tyypillinen ominaisuus.

Onko tälläisestä jotain esimerkkejä heittää? Mielellään ne referenssit siihen viereen niin tiedetään että oliko ne AI:n tuotokset aidon oloisesti valaistu vai ei.

SItähän oon koittanut koko ajan selittää, että DLSS5 AI kuvassa ei välttämättä kunnioiteta niitä valonlähteitä. Silti esimerkiksi se materiaalien pinta ja mikrodetailit/valaistus saattavat näyttää enemmän valo-/video kuvalle, kun rajallisella määrällä säteitä toteutetussa PT:ssä tai muuten piirrettyssä kuvassa.

Kyllähän noissa demoissakin melkein kaikissa ne DLSS5 kasvotkin näyttää kuitenkin enemmän oikeille valokuvilla, kun ilman DLSS5:sta.

Se on mun mielestä ihan selvää, että NVIDIA:n tavoite tässä on juuri se, että voidaan saada tietyllä tapaa realistisempaa materiaalia/niiden valaistusta peleihin. Se miten hyvin se onnistuu, on sitten eri asia ja jää nähtäväksi. Mutta se, että NVIDIA olis tehnyt tän vaan siksi, että saadaan vaan jotkut "snap chat filtterit" peleihin, on jo lähtökohtaisesti aika absurdi ajatus, vaikka moni tuntuu niin ajattelevan.

Onko jotain syytä epäillä, että ai mallia ei olisi treenattu nimenomaan valaisemaan erilaisia materiaaleja/pintoja... Koska sehän tässä koko DLSS5:sa on se pointti.
 
Tämä monin paikoin myös vähentää realismia (tai ainakin taitelijan ajatusta siitä) vaikka jätettäisiin huomiotta studiovalaistuspuoli. Monessa esimerkissä on nostettu esiin DFn videolta kohtaus, jossa hahmolla on lippis ja valaistus tulee selvästi ylhäältä luoden lipasta varjon kasvoille. DLSS5:n kanssa ko. varjoa ei ole ja valaistus tulee ties mistä. Ja toinen on tosiaan sumujen katoaminen tyystin

Minua kyllä häiritsi enemmän se jalkapallo siinä Fifa demossa, se morphaa muotoaan kuin The Thing konsanaan. Kuvakaappauksissa pelaajan käsikin muljuaa aika oudosti.
Niistä tulee kyllä olo, että tuo on kyllä outo yhdistelmä AI kaunistusfiltteriä ja raakakuvakehityssoftan AI automaattiparannusta. Jos tehtäisiin vain pinnan geometrian ja tekstuurien valonheijastuskorjauksia, värikorjausta yms, niin noin pahoja temporaalisia artefakteja ei tulisi. Kuvittelisin muodon säilyvän siinä kohtaa, ja tuo näyttää enemmän "AI reimagine" tekniikalle.

No syksyyn on aikaa ja demoon on efektit vedetty taatusti yhteentoista, että kaikki näkee miten kuva muuttuu. Ainakin se, että on paljon maskaus ja efektin voimakkuussäätöjä eri asioille olemassa antaa toivoa paremmasta.
 
Minua kyllä häiritsi enemmän se jalkapallo siinä Fifa demossa, se morphaa muotoaan kuin The Thing konsanaan. Kuvakaappauksissa pelaajan käsikin muljuaa aika oudosti.
Niistä tulee kyllä olo, että tuo on kyllä outo yhdistelmä AI kaunistusfiltteriä ja raakakuvakehityssoftan AI automaattiparannusta. Jos tehtäisiin vain pinnan geometrian ja tekstuurien valonheijastuskorjauksia, värikorjausta yms, niin noin pahoja temporaalisia artefakteja ei tulisi. Kuvittelisin muodon säilyvän siinä kohtaa, ja tuo näyttää enemmän "AI reimagine" tekniikalle.

No syksyyn on aikaa ja demoon on efektit vedetty taatusti yhteentoista, että kaikki näkee miten kuva muuttuu. Ainakin se, että on paljon maskaus ja efektin voimakkuussäätöjä eri asioille olemassa antaa toivoa paremmasta.

Ne jalkapallon breakup-artifaktit on luultavammin frame generoinnista johtuvia ongelmia. Toki voi olla että tämä valaistusefekti myös kärsii temporal disocclusion -ongelmista kuten nämä muutkin ML-tekniikat. Mutta onhan heillä tosiaan aikaa hioa tätä.

Kaikilla optimointikikoilla on omat ongelmansa, eikä mitään aitoa framea ole koskaan olemassa ollutkaan, edes sillä ammattilaisten offline säteenseurantamallinnusohjelmalla. Simuloida voidaan mahdollisimman tarkasti, mutta reaaliaikaiseen suorituskykyyn välttämättä tarvitaan AI-kikkoja. Path Tracingin denoisauskin on tehdään AI:lla, koska on varaa pomputella vain muutamia säteitä pari kertaa, ja loput inferoidaan AI-denoiserilla koska sitä kohinaa on muuten tuhottomasti.
 
Kyllähän noissa demoissakin melkein kaikissa ne DLSS5 kasvotkin näyttää kuitenkin enemmän oikeille valokuvilla, kun ilman DLSS5:sta.
Riippuu aivan täysin siitä että miten niitä alkaa analysoimaan. Mikrodetaileja on enemmän, tekstuurit pääsääntöisesti näyttää tarkemmalta muutenkin, mut sit jos noista yrittäisi analysoida valaistusta niin illuusio hajoaa täysin. Korkeintaan aivan pintapuoleisesti ne voi näyttää ”aidommalta”, sitä kuitenkaan olematta.

Miksei vaan laitettu kunnon tekstuureja siihen alkuperäiseen, en ymmärrä. Tällöin saatais se pt:llä laskettu kunnon valaistus yhdistettynä parempiin tekstuureihin.
Se on mun mielestä ihan selvää, että NVIDIA:n tavoite tässä on juuri se, että voidaan saada tietyllä tapaa realistisempaa materiaalia/niiden valaistusta peleihin.
Eikö me just käyty läpi että tällä tuotettu valaistus ei ole realistista. Ei edes ”tietyllä tapaa”.
 
Mm. Red Dead Redemption 2:n, GTA V:n, Death Stranding 2:n ja Uncharted 2:n parissa työskennelleen animaattorin mietteitä
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Linkki: https://www.youtube.com/watch?v=xKPeN8IQM-Y

(https://forum.beyond3d.com/threads/dlss5-ai-game-visual-transformations.64198/post-2401768)

Tässä viestissä käydään Resident Evilistä kohta jossa DLSS 5 vähät välittää scenen todellisesta valaistuksesta
 
Mm. Red Dead Redemption 2:n, GTA V:n, Death Stranding 2:n ja Uncharted 2:n parissa työskennelleen animaattorin mietteitä
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Linkki: https://www.youtube.com/watch?v=xKPeN8IQM-Y

(https://forum.beyond3d.com/threads/dlss5-ai-game-visual-transformations.64198/post-2401768)

Tässä viestissä käydään Resident Evilistä kohta jossa DLSS 5 vähät välittää scenen todellisesta valaistuksesta

Beyond3D ei toimi ellet luo tunnuksia, mutta video vaikuttaa mielenkiintoiselta.
 
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Linkki: https://www.youtube.com/watch?v=D0EM1vKt36s


Daniel Owen saanut lisää vastauksia DLSS5 kuvan muodostamiseen liittyviin kysymyksiin Nvidian edustajalta.

TLDR = Kyllä kyseessä on edelleen "instagram filtteri" 🤣

EDIT: En huomannu että sama postattu myös uutisen lankaan mutta onpahan nyt kahdessa paikassa muistuttamassa.
 
Viimeksi muokattu:
olikohan ne vuoden takaiset CES aikoihin esitellyt RTX neural materiaalit ja tekstuurit myös vain AI sloppia kun en ole noista kuullut mitään tai sitten mennyt vain ohi.
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Linkki: https://youtu.be/ku1rdOG-c4Y
 
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Linkki: https://www.youtube.com/watch?v=D0EM1vKt36s


Daniel Owen saanut lisää vastauksia DLSS5 kuvan muodostamiseen liittyviin kysymyksiin Nvidian edustajalta.

TLDR = Kyllä kyseessä on edelleen "instagram filtteri" 🤣


Käytännössä tämä tarkoittaisi sitä, että pelinkehittäjien kontrolli efektin hallintaan on lähinnä miten paljon efektin vahvuutta on käytössä tai maskataanko jokin segmentoitu alue kokonaan pois. Voisihan sitä käyttää niin, että maskaa ihmisten kasvot kokonaan pois jos ei halua kasvojen muuttuvan ollenkaan. Järkevämpää lienee vain tiputtaa denoising strength sille tasolle ettei kasvot muutu liian paljon. Jos se nyt on pelinkehittäjälle niin pilkuntarkkaa ylipäätään että malliin ei tule muutoksia kuten esim. tuo Owenin esille tuoma ukon hiusrajan muutos. Ehkä se menee vielä jollain random NPC:llä, mutta päähenkilöllä luultavasti ei.

Screenspace-efektinä tällä on lisäksi ongelmana se, että valaistus ei yllä reunoille asti, vaan ne erottuvat selvästi tummempana alueena.
 
Käytännössä tämä tarkoittaisi sitä, että pelinkehittäjien kontrolli efektin hallintaan on lähinnä miten paljon efektin vahvuutta on käytössä tai maskataanko jokin segmentoitu alue kokonaan pois. Voisihan sitä käyttää niin, että maskaa ihmisten kasvot kokonaan pois jos ei halua kasvojen muuttuvan ollenkaan. Järkevämpää lienee vain tiputtaa denoising strength sille tasolle ettei kasvot muutu liian paljon. Jos se nyt on pelinkehittäjälle niin pilkuntarkkaa ylipäätään että malliin ei tule muutoksia kuten esim. tuo Owenin esille tuoma ukon hiusrajan muutos. Ehkä se menee vielä jollain random NPC:llä, mutta päähenkilöllä luultavasti ei.
Kyllä käytännössä "artistinen säätömahdollisuus" on vaan tyyliin valotuksen ja gamman säätöä niinkun arvelinkin Itse kuvahan tulee edelleen treenattuun lähdedataan verraten ilman että voit mitenkään muuten vaikuttaa. Kyllä ne mainitsi että siinä on mahdollisuus rajoittaa alueita mutta menee aika näpertämiseksi jos pitää kehittäjän ruveta maalailemaan hiusrajoja hahmoilta mihin ei saa koskea jos kyseinen edes mahdollista tehdä. Lisäksi miten kyseinen vaikuttaa kuvan muodostukseen jos kokonaisuudesta leikkaillaan osia pois. AI saattaa hallusinoida ties minkälaisia poikkeavuuksia puutteellisen/vähemmän kattavan datan pohjalta. Eipä tämä ole mitään muuta kuin Toddin tyyppisille starfield kehittäjille suunniteltu oikotie onneen millä pitäis saada taiottua paskasta timantteja. Kuorenalla kuitenkaan kyseessä sen kummempi kuin reaaliajassa "instagram filtterinä" operoiva kuvan loppukäsittelijä.
 
Viimeksi muokattu:
Kyllä käytännössä "artistinen säätömahdollisuus" on vaan tyyliin valotuksen ja gamman säätöä niinkun arvelinkin Itse kuvahan tulee edelleen treenattuun lähdedataan verraten ilman että voit mitenkään muuten vaikuttaa. Kyllä ne mainitsi että siinä on mahdollisuus rajoittaa alueita mutta menee aika näpertämiseksi jos pitää kehittäjän ruveta maalailemaan hiusrajoja hahmoilta mihin ei saa koskea jos kyseinen edes mahdollista. Eipä tämä ole mitään muuta kuin Toddin tyyppisille starfield kehittäjille suunniteltu oikotie onneen millä pitäis saada taiottua paskasta timantteja. Kuorenalla kuitenkaan kyseessä sen kummempi kuin reaaliajassa "instagram filtterinä" operoiva kuvan loppukäsittelijä.

Itse olen ymmärtänyt tämän niin, että DLSS5 ensin segmentoi sen yksittäisen ruudun eri osiin, esim. kasvot, hiukset, tausta. Tällä saadaan aikaan tuo maskaaminen, ja tekoälymalli hoitaa muutokset siihen perustuen, ja pelinkehittäjä voi halutessaan disabloida/enabloida näitä segmenttejä, ja ehkä mahdollisesti myös säätää efektin intensiteettiä jokaisella segmentillä erikseen.

Tässä X:stä poimittu yksinkertainen segmentoitu malli:
Image


Blendaus alkuperäisen kuvan ja tekoälyn luoman tuotoksen välillä sitten päättää miten paljon naama muuttuu, ja miten paljon siihen tulee sitä fotorealismia. Ongelma on se, että mitä enemmän vahvuutta nostaa fotorealismin tuomiseksi tekoälymallista, sitä suuremmalla todennäköisyydellä se tuo naamaan myös muita merkittäviä muutoksia, kuten hiusrajaa, meikkiä tms mikä kuitenkin pysyy vielä alkuperäisen geometrisissä rajoissa. Pääasiallisesti siis ainoa ratkaisu mallin identiteetin pitämiseen kuosissa on rajoittaa tekoälymallin intensiteettiä, mikä vuorostaan rajoittaa myös sitä fotorealismia. Hahmosta saa siis eläväisemmän näköisen vain uhraamalla uskollisuutta alkuperäiselle mallille. Toki jollain kontrasti/gamma säädöllä jotain pientä voi tehdä, mutta pääasiallinen kontrolli on tämä Nvidian dokkarin mainitsema Intensity:

1773961025092.png


Luulisi, että heillä olisi tuon lisäksi kuitenkin vielä muitakin kontrolliasetuksia joita löytyy esim. ComfyUI:ssa. Toki tämä on suoritettava reaaliajassa joten hieman eri kauraa kuin offline kuvien generointi.

Yksi asia mikä tulee mieleen on, että kehittäjät voivat kyllä tehdä muutoksia siihen hahmomalliin tuota DLSS5-tilaa varten, eli kun DLSS5 enabloidaan, voidaan samalla tehdä siihen base frameen haluamiaan muutoksia, joiden pohjalta tuo tekoälymalli voi teoriassa saavuttaa lopputuloksen joka on uskottavampi kuin mitä se olisi ilman pohjamuutoksia. Tällä tavalla voisi ehkä hieman yrittää kiertää jotain muutosta.

Myös tuon screenspace-ongelman kuvan reunoilla voi teoriassa ratkaista laskemalla sen path tracing -valaistuksen pohjalle, mutta tämä olisi tietysti hyvin kallis operaatio. Samalla kuitenkin saisi ne kuvan ulkopuolelta tulevat säteet.
 
Itse olen ymmärtänyt tämän niin, että DLSS5 ensin segmentoi sen yksittäisen ruudun eri osiin, esim. kasvot, hiukset, tausta. Tällä saadaan aikaan tuo maskaaminen, ja tekoälymalli hoitaa muutokset siihen perustuen, ja pelinkehittäjä voi halutessaan disabloida/enabloida näitä segmenttejä, ja ehkä mahdollisesti myös säätää efektin intensiteettiä jokaisella segmentillä erikseen.

Tässä X:stä poimittu yksinkertainen segmentoitu malli:
Image


Blendaus alkuperäisen kuvan ja tekoälyn luoman tuotoksen välillä sitten päättää miten paljon naama muuttuu, ja miten paljon siihen tulee sitä fotorealismia. Ongelma on se, että mitä enemmän vahvuutta nostaa fotorealismin tuomiseksi tekoälymallista, sitä suuremmalla todennäköisyydellä se tuo naamaan myös muita merkittäviä muutoksia, kuten hiusrajaa, meikkiä tms mikä kuitenkin pysyy vielä alkuperäisen geometrisissä rajoissa. Pääasiallisesti siis ainoa ratkaisu mallin identiteetin pitämiseen kuosissa on rajoittaa tekoälymallin intensiteettiä, mikä vuorostaan rajoittaa myös sitä fotorealismia. Hahmosta saa siis eläväisemmän näköisen vain uhraamalla uskollisuutta alkuperäiselle mallille. Toki jollain kontrasti/gamma säädöllä jotain pientä voi tehdä, mutta pääasiallinen kontrolli on tämä Nvidian dokkarin mainitsema Intensity:

1773961025092.png


Luulisi, että heillä olisi tuon lisäksi kuitenkin vielä muitakin kontrolliasetuksia joita löytyy esim. ComfyUI:ssa. Toki tämä on suoritettava reaaliajassa joten hieman eri kauraa kuin offline kuvien generointi.

Yksi asia mikä tulee mieleen on, että kehittäjät voivat kyllä tehdä muutoksia siihen hahmomalliin tuota DLSS5-tilaa varten, eli kun DLSS5 enabloidaan, voidaan samalla tehdä siihen base frameen haluamiaan muutoksia, joiden pohjalta tuo tekoälymalli voi teoriassa saavuttaa lopputuloksen joka on uskottavampi kuin mitä se olisi ilman pohjamuutoksia. Tällä tavalla voisi ehkä hieman yrittää kiertää jotain muutosta.

Myös tuon screenspace-ongelman kuvan reunoilla voi teoriassa ratkaista laskemalla sen path tracing -valaistuksen pohjalle, mutta tämä olisi tietysti hyvin kallis operaatio. Samalla kuitenkin saisi ne kuvan ulkopuolelta tulevat säteet.
Niin eipä tuolla segmentoinnilla mitään muuta voita kun sitä että saadaan rajattua noita käsiteltäviä alueita. Ja tuossa Owenin videossa esillä olevassa Nvidian dokumenttivastauksessa näkyy nuo kaikki tarjolla olevat säätövaihtoehdot joita ei paljon ole. Ja edellä mainitut ei muuta edelleenkään lopputulosta joka on AI:n reaaliajassa generoima filtteröity kuva joka sijoitetaan alkuperäistä geometriaa mukaillen edellisen kuvan päälle sitä tahtia kun frame muuttuu ja hahmo liikkuu.

Ja mitä tulee sitten tuohon ajatukseen että oispa enemmän slidereita jolla vois vaan vähän säätää muutamia ryppyjä kuvaan niin sillonhan tuo toimis. En ymmärrä että mitä helvettiä tällä voitetaan kun tai jos kyse on muutamasta rypystä tai hahmomallista yleensäkin ne voidaan todennäköisesti toteuttaa huomattavasti tehokkaammin ja paremmin mayalla suoraan hahmomalliin sen sijaan että annetaan tekoälyn hallusinoida rng lopputulos. Kuten sanottua tätä yritetään nyt markkinoida Toddin kaltasille kehittäjille jotka haluaa lähinnä leikata kehitykseen käytettävästä ajasta. Rykäsemällä barebone kasvomallia olevan neutraalin tikku-ukon mihin sitten tekoäly hallusinoi päälle milloin minkäkin tyyppisen lopputuloksen. Pelaajille tämä ei mennyt läpi. Toivotaan ettei pelin kehittäjillekään. Sillä tämä ei todellakaan ole se suunta mihin pelinkehitystä tulisi viedä
 
Viimeksi muokattu:
Puhu vain omasta puolestasi. Minä olen hyvilläni että uudenlaista rendaustekniikkaa kehitellään ja pääsen sellaista sitten joskus testaamaan, oli ensimmäinen iteraatio sitten kelvoton tai kelvollinen. Enkä ole ainoa.

Se että softaa kehitetään ei sulje pois sitä etteikö rautaakin kehitettäisi.
Näin on, pahimmassa (realistisessa) tapauksessa tän kehitys jää puolitiehen, homma pidetään suljettuna eikä avata loppukäyttäjälle, toiminnallisuus on suppeaa, sitä ei hyödynnetä oikein ja pelit jotka kehitetään tämä mielessä ovat ilman dlls5:tä pelikelvottomia - joka koskee muutamaa tekkidemoa jota ilman kaikki varmaan pystyy elämään. Parhaimmassa tapauksessa jos oletetaan että tämä ei ole vain AI alloonharjalla ratsastamista niin tämä tulee mullistamaan niin grafiikan renderöinnin, sekä modaus kulttuurin. Itse haluan olla kuitenkin optimistinen tämän suhteen ja pidän potenttiaalisia tavoitteita joita tälle voi asettaa mitä tulee renderöinnin parantamiseen ihan realistisina. Toki kyyninen sanoisi että ei tästä mitään tuu, taas yks AI scämmäys.
Teknologiassa on muna/kana ongelma. Jos ei kukaan ala tekemään uusia juttuja pelattaisiin edelleen wolfensteinia. Se mikä tänään on tekkidemo on huomenna tuote ja ylihuomenna kultastandardi mitä tukee vanhempikin rauta. dlss1, säteenseuranta, AI, kuluttajapuolella lähtölaukauksen 2018, pahasti otti turpaan 20x0 sarja AI ja säteenseuranta "turhakkeena". Nyt voi sanoa, että säteenseuranta ja AI pohjainen skaalaus ovat kultastandardi peleissä mitä tukevat kaikki laitevalmistajat konsoleita myöten. All in AI ja säteenseuranta etenkin seuraavassa konsolisukupolvessa jos seurannut MS ja sony PR:aa seuraavan generaation konsoleiden osalta.
Rehellisyyden ja tasapuolisuuden nimissä AI:n puskemisen takana on valtavat rahasummat joita siihen on käytetty. Lisää AI:ta = osakkeet menee ylös. Jos AI hankkeet epäonnistuu yrityksiä menee konkkaan joka myös vaikuttaa valtiotasolla. Näkyy kyllä tässäkin, mutta asia ei ole ihan yksiselitteinen. Jos epic ja kumppanit hoitaisi renderöinnin oikein ja kehittäjät optimoisi pelejä ei olisi tarvetta upscale ja feikkifreimeille.
Historiassa on myös paljon teknologiaa joka on pelkän kokeilun jälkeen jäänytkin sinne, se ei tietenkään pelkästään tarkoita mitään jos joku heittää ideaa ja konseptia pöytään jostain "next big thing:stä".
 
Mm. Red Dead Redemption 2:n, GTA V:n, Death Stranding 2:n ja Uncharted 2:n parissa työskennelleen animaattorin mietteitä
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Linkki: https://www.youtube.com/watch?v=xKPeN8IQM-Y

(https://forum.beyond3d.com/threads/dlss5-ai-game-visual-transformations.64198/post-2401768)

Tässä viestissä käydään Resident Evilistä kohta jossa DLSS 5 vähät välittää scenen todellisesta valaistuksesta

kuva_2026-03-20_033847784.png


Tekoäly ei ymmärrä että hahmon silmät käy kiinni, piirtää vaan väkisin uusiksi...ei ole ihan Nvidian poijjaat huolella esittelyjään tehneet, tai itsekään lopputuloksia katsoneet:asif:. Hyvä pätkä ammattilaiselta, tekee selväksi että tässä muodossa tämä jyrää alkuperäisen taiteilijan käden jäljen yli, mikä tietysti ongelmallista. Eli kyse ei ole vain valaistuksesta. Valaistuksessa onnistui paremmin, ihmiskasvot haastavampia (etenkin jos alkuperäinen hahmo muuttuu).
 
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Linkki: https://www.youtube.com/watch?v=HiDxiLgnJ-Y


Kaikkien vihaamalta mutta omasta mielestä tässä ainakin ihan valideja pointteja esille tuovasta puhuvalta päältä tuoretta videota. Ottaa hyvin esille Nvidian historian ja toimintamallit näissä proprietary ratkaisuissa PhysX:stä lähtien ja pohtii mahdollisia syitä sille miksi Nvidia haluaa ajaa just nyt erittäin epätehokasta tapaa toteuttaa grafiikat peleissä. Tekniikkaa joka olis sopinu paremmin nimettäväksi vaikka RTX Remix 2.0:na vanhoille peleille kuin nykyinen yritys.

AMD:n RDNA5 nimittäin voi olla oikeasti haastamassa Nvidiaa RT:ssä ja Upskaalauksessa jos huhut, leakit ja microsoftinkin "vihjaamat" pointit AMD:n uudesta ja tulevasta tekoälykiihdytin tekniikasta pitää paikkansa.
 
Viimeksi muokattu:
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Linkki: https://www.youtube.com/watch?v=HiDxiLgnJ-Y


Kaikkien vihaamalta mutta omasta mielestä tässä ainakin ihan valideja pointteja esille tuovasta puhuvalta päältä tuoretta videota. Ottaa hyvin esille Nvidian historian ja toimintamallit näissä proprietary ratkaisuissa PhysX:stä lähtien ja pohtii mahdollisia syitä sille miksi Nvidia haluaa ajaa just nyt erittäin epätehokasta tapaa toteuttaa grafiikat peleissä. Tekniikkaa joka olis sopinu paremmin nimettäväksi vaikka RTX Remix 2.0:na vanhoille peleille kuin nykyinen yritys.

AMD:n RDNA5 nimittäin voi olla oikeasti haastamassa Nvidiaa RT:ssä ja Upskaalauksessa jos huhut, leakit ja microsoftinkin "vihjaamat" pointit AMD:n uudesta ja tulevasta tekoälykiihdytin tekniikasta pitää paikkansa.


Nyt on kyllä kunnon teoriat taas. Ihan varmasti NVIDIA on aivan paniikissa, mitä se AMD tekee pelinöyttiksissä ja sen takia haluaa, että peligrafiikka piirretään tulevaisuudessa kokonaan AI:lla.
 
Riippuu aivan täysin siitä että miten niitä alkaa analysoimaan. Mikrodetaileja on enemmän, tekstuurit pääsääntöisesti näyttää tarkemmalta muutenkin, mut sit jos noista yrittäisi analysoida valaistusta niin illuusio hajoaa täysin. Korkeintaan aivan pintapuoleisesti ne voi näyttää ”aidommalta”, sitä kuitenkaan olematta.

Miksei vaan laitettu kunnon tekstuureja siihen alkuperäiseen, en ymmärrä. Tällöin saatais se pt:llä laskettu kunnon valaistus yhdistettynä parempiin tekstuureihin.

Eikö me just käyty läpi että tällä tuotettu valaistus ei ole realistista. Ei edes ”tietyllä tapaa”.

Sori. Kyllä se vaan on. Aika moni muukin on sitä mieltä, että ne näyttää enemmän valokuvalle, jos sulle laitetaan ne kuvat vierekkäin. Eli se on juurikin tietyllä tapaa enemmän oikeaa valaistusta jäljittelevä.

On se kumma kun ei voi edes yksinkertaisinta asiaa myöntää.
 

Statistiikka

Viestiketjuista
303 089
Viestejä
5 154 783
Jäsenet
82 308
Uusin jäsen
Makoskoo

Hinta.fi

Back
Ylös Bottom