Keskustelua yliskaalaustekniikoista ja frame generaatiosta Nvidia Dlss, Amd Fsr, Intel Xess, Lossless Scaling

AI ei simuloi mitään. Se koittaa jäljitellä sitä, mille realistisesti valaistu kuva näyttää, eikä osaa kunnolla huomioida, mitä valonlähteitä siinä kuvassa oikeasti on. Tällä hetkellähän tässä käytetään liikevektoreita ja väri dataa pohjana, mikä ohjaa sitä AI:n teoksia. Ehkä tulevaisuudessa tähän saadaan lisää inputteja, mitkä ohjaa tuota, jolloin ylimääräisiä valonlähteitä ei ehkä tule mukaan.

Onhan tämä siinä mielessä takapakkia, että mennään oikeasta valon simuloinnista taas feikkaamiseen, mutta eihän tätä ole mikään pakko käyttää. Varmasti joissain peleissä, kuten Star Field, tästä voi olla oikeasti iso hyöty, jos haluaa tavoitella realistisempia yleisilmettä peliin, välittämättä siitä, onko se skenen valaistus ihan prikulleen simuloitu niiden valonlähteen mukaisesti.
Noniin, ja jos kerran tekaistu valaistus on ihan ok, niin miksi ajaa path tracingia ylipäänsä? En ymmärrä, etenkin jos konteksti otetaan edellisestä viestistäsi:
Tämän teknologian tarkoitushan on tuoda sitä korkean tarkkuuden path tracingin tuomaa realisistisuutta kuvaan jo nyt
Tämä ei lisää tai tuo korkean tarkkuuden path tracingin realistisuutta. Se vaatisi sitä path tracingia tai parempaa denoiseria.
 
Noniin, ja jos kerran tekaistu valaistus on ihan ok, niin miksi ajaa path tracingia ylipäänsä? En ymmärrä, etenkin jos konteksti otetaan edellisestä viestistäsi:

Tämä ei lisää tai tuo korkean tarkkuuden path tracingin realistisuutta. Se vaatisi sitä path tracingia tai parempaa denoiseria.

Enkö juuri sanonut, että se antaa yleisilmeeltään paremman tason path tracingiä muistuttavan kuvan. Ei se ole tietenkään sama tai yhtä hyvä asia, kun oikeasti korkeatasoinen path tracing, joka oikeasti simuloi sen valon.

Sitä olen itsekkin miettinyt, että meneekö path tracing siellä pohjalla ihan hukkaan tämän kanssa, vai osaako se hyödyntää sitä kuitenkin jotenkin? Tämä DLSS5 toimii kuitenkin vain screen spacessa 2D tasolla.
 
Tämä ei lisää tai tuo korkean tarkkuuden path tracingin realistisuutta. Se vaatisi sitä path tracingia tai parempaa denoiseria.
Tämä monin paikoin myös vähentää realismia (tai ainakin taitelijan ajatusta siitä) vaikka jätettäisiin huomiotta studiovalaistuspuoli. Monessa esimerkissä on nostettu esiin DFn videolta kohtaus, jossa hahmolla on lippis ja valaistus tulee selvästi ylhäältä luoden lipasta varjon kasvoille. DLSS5:n kanssa ko. varjoa ei ole ja valaistus tulee ties mistä. Ja toinen on tosiaan sumujen katoaminen tyystin
 
Sitä olen itsekkin miettinyt, että meneekö path tracing siellä pohjalla ihan hukkaan tämän kanssa, vai osaako se hyödyntää sitä kuitenkin jotenkin?
Kyllä se sitä hyödyntää varmasti. Osaa maskata sen pohjalta että mikä alue kuvasta slopataan.
Enkö juuri sanonut, että se antaa yleisilmeeltään paremman tason path tracingiä muistuttavan kuvan.
Miltä tiedät että se antaa paremman tason path tracingia muistuttavan kuvan? Eikö se vaatisi sitä paremman tason path tracingia, jotta vertailu on mahdollista ja moista kehtaisi laukoa täällä? Voi ihan hyvin pitää paikkansa että rajattomalla sädebudjetillakin se nykyinen pt olisi lähempänä kuin tämä slopattu versio?
 
Kyllä se sitä hyödyntää varmasti. Osaa maskata sen pohjalta että mikä alue kuvasta slopataan.

Miltä tiedät että se antaa paremman tason path tracingia muistuttavan kuvan? Eikö se vaatisi sitä paremman tason path tracingia, jotta vertailu on mahdollista ja moista kehtaisi laukoa täällä? Voi ihan hyvin pitää paikkansa että rajattomalla sädebudjetillakin se nykyinen pt olisi lähempänä kuin tämä slopattu versio?

Mikä tässä nyt taas on niin vaikeeta. AI:n avulla voidaan nyt luoda hyvin aidon näköisesti valaistuja materiaaleja/pintoja reaaliajassa, mutta valaistus on AI:n tulkinta eikö välttämättä kunnioita pelimaailman valonlähteitä. Pystytään luomaan näennäisesti elokuva tason PT:n tarjoamaa lookia, materiaalien ja pintojen valaistuksen osalta, vaikka se ei olisikaan maailman valonlähteitä tarkasti kunnioittavaa, kun sitä ei simuloida.

Tuo on ainakin omasta mielestä tämän DLSS5:n tavoite. Se että miten hyvin se toteutuu on sitten eri asia.

Varmasti rajattomalla säde budjetilla päästään samaan ja parempaankin yleisilmeeseen, ja kaikkien pintojen valaistus mätsäisi täydellisesti maailman valonlähteen kanssa. Tällä hetkellä ei vaan ole rautaa joka sitä jaksaa pyörittää tarpeeksi nopeasti reaaliajassa.
 
Viimeksi muokattu:
AI:n avulla voidaan nyt luoda hyvin aidon näköisesti valaistuja materiaaleja/pintoja reaaliajassa
Mistä tiedät että ne on aidon näköisesti valaistu? Eikö siihen tarvita vertailukuva siitä loppuun asti lasketusta versiosta?
Pystytään luomaan näennäisesti elokuva tason PT:n tarjoamaa lookia, materiaalien ja pintojen valaistuksen osalta, vaikka se ei olisikaan maailman valonlähteitä tarkasti kunnioittavaa, kun sitä ei simuloida.
Joo, jotain lookia voidaan luoda, tarkemmin sanottuna slop lookia. PT:tä ei. Eikä oikeastaan PT lookiakaan (ellei voida osoittaa että tossa skenessä säteitä lisää ampumalla se lopulta muodostaisi ominaisuuksiltaan vastaavan kuvan).

Tuossa olisi ollut nvidialla nyt miljoonan dollarin paikka, näyttää kuinka heidän näyttis PT:t maksimissa tunnin jauhamalla olis tehny hyvin tarkkaan saman ku superslopperi tekee n. 30 millisekunnissa. Jostain kumman syystä moista ei haluttu tehdä, vaan hallusinoidaan paskaa ja vedetään kontrastit maksimiin, eikä verrata referenssiin.

Ei ole mitään syytä olettaa että tuo superslopperi arvaisi lähemmäs sen todellisen PT kuvan kuin mitä heidän nykyinen rajallinen PT toteutus laskee.
 
Mistä tiedät että ne on aidon näköisesti valaistu? Eikö siihen tarvita vertailukuva siitä loppuun asti lasketusta versiosta?

Joo, jotain lookia voidaan luoda, tarkemmin sanottuna slop lookia. PT:tä ei. Eikä oikeastaan PT lookiakaan (ellei voida osoittaa että tossa skenessä säteitä lisää ampumalla se lopulta muodostaisi ominaisuuksiltaan vastaavan kuvan).

Tuossa olisi ollut nvidialla nyt miljoonan dollarin paikka, näyttää kuinka heidän näyttis PT:t maksimissa tunnin jauhamalla olis tehny hyvin tarkkaan saman ku superslopperi tekee n. 30 millisekunnissa. Jostain kumman syystä moista ei haluttu tehdä, vaan hallusinoidaan paskaa ja vedetään kontrastit maksimiin, eikä verrata referenssiin.

Ei ole mitään syytä olettaa että tuo superslopperi arvaisi lähemmäs sen todellisen PT kuvan kuin mitä heidän nykyinen rajallinen PT toteutus laskee.

Etkö ymmärrä eroa simuloinnin ja lookin välillä. AI voi luoda kuvan, joka näyttää sille, että on ammuttu tsiljoona sädettä ja hemmetisti bounceja, jolloin se materiaali/pinta voi näyttää näennäisesti aidommalle, vaikka sen valaistus ei vastaisi kunnolla sen pelimaailman valaistusta siinä tilanteessa. Eli se ei näytä välttämättä totuudenmukaiselle ympäristön valaistukseen kohden, mutta muuten aidommalle. Tällä tavallahan peligrafiikka on feikattu ikuisuudet. Luodaan illuusio "aidosta".

Tekoälyä on treenattu milettömällä määrällä dataa, mille eri materiaalit näyttää erilaisissa valaistuksessa, joten tottakait se pystyy luomaan hyvin aidon oloisesti valaistuja pintoja/materiaaleja.
 
Etkö ymmärrä eroa simuloinnin ja lookin välillä.
Etkö ymmärrä miltä ns. slop look näyttää?
chatgpt vaan auki ja sinne "make it more realistic" muutaman kerran.

Toivottavasti ymmärrät että slop look ja PT look on varsin eri asioita, eikä niitä kannata sekoittaa toisiinsa. PT lookissa olennaista on että valot vaikuttavat tulevan loogisista suunnista, ja esim. ei ole samanaikaisesti kahteen suuntaan piirtyviä varjoja ulkona suorassa auringonpaisteessa. Ns. slop look taas sallii tuollaisen meiningin ja on sille suorastaan tyypillinen ominaisuus.
Tekoälyä on treenattu milettömällä määrällä dataa, mille eri materiaalit näyttää erilaisissa valaistuksessa, joten tottakait se pystyy luomaan hyvin aidon oloisesti valaistuja pintoja/materiaaleja.
Onko tälläisestä jotain esimerkkejä heittää? Mielellään ne referenssit siihen viereen niin tiedetään että oliko ne AI:n tuotokset aidon oloisesti valaistu vai ei.
 
Etkö ymmärrä miltä ns. slop look näyttää?
chatgpt vaan auki ja sinne "make it more realistic" muutaman kerran.

Toivottavasti ymmärrät että slop look ja PT look on varsin eri asioita, eikä niitä kannata sekoittaa toisiinsa. PT lookissa olennaista on että valot vaikuttavat tulevan loogisista suunnista, ja esim. ei ole samanaikaisesti kahteen suuntaan piirtyviä varjoja ulkona suorassa auringonpaisteessa. Ns. slop look taas sallii tuollaisen meiningin ja on sille suorastaan tyypillinen ominaisuus.

Onko tälläisestä jotain esimerkkejä heittää? Mielellään ne referenssit siihen viereen niin tiedetään että oliko ne AI:n tuotokset aidon oloisesti valaistu vai ei.

SItähän oon koittanut koko ajan selittää, että DLSS5 AI kuvassa ei välttämättä kunnioiteta niitä valonlähteitä. Silti esimerkiksi se materiaalien pinta ja mikrodetailit/valaistus saattavat näyttää enemmän valo-/video kuvalle, kun rajallisella määrällä säteitä toteutetussa PT:ssä tai muuten piirrettyssä kuvassa.

Kyllähän noissa demoissakin melkein kaikissa ne DLSS5 kasvotkin näyttää kuitenkin enemmän oikeille valokuvilla, kun ilman DLSS5:sta.

Se on mun mielestä ihan selvää, että NVIDIA:n tavoite tässä on juuri se, että voidaan saada tietyllä tapaa realistisempaa materiaalia/niiden valaistusta peleihin. Se miten hyvin se onnistuu, on sitten eri asia ja jää nähtäväksi. Mutta se, että NVIDIA olis tehnyt tän vaan siksi, että saadaan vaan jotkut "snap chat filtterit" peleihin, on jo lähtökohtaisesti aika absurdi ajatus, vaikka moni tuntuu niin ajattelevan.

Onko jotain syytä epäillä, että ai mallia ei olisi treenattu nimenomaan valaisemaan erilaisia materiaaleja/pintoja... Koska sehän tässä koko DLSS5:sa on se pointti.
 
Tämä monin paikoin myös vähentää realismia (tai ainakin taitelijan ajatusta siitä) vaikka jätettäisiin huomiotta studiovalaistuspuoli. Monessa esimerkissä on nostettu esiin DFn videolta kohtaus, jossa hahmolla on lippis ja valaistus tulee selvästi ylhäältä luoden lipasta varjon kasvoille. DLSS5:n kanssa ko. varjoa ei ole ja valaistus tulee ties mistä. Ja toinen on tosiaan sumujen katoaminen tyystin

Minua kyllä häiritsi enemmän se jalkapallo siinä Fifa demossa, se morphaa muotoaan kuin The Thing konsanaan. Kuvakaappauksissa pelaajan käsikin muljuaa aika oudosti.
Niistä tulee kyllä olo, että tuo on kyllä outo yhdistelmä AI kaunistusfiltteriä ja raakakuvakehityssoftan AI automaattiparannusta. Jos tehtäisiin vain pinnan geometrian ja tekstuurien valonheijastuskorjauksia, värikorjausta yms, niin noin pahoja temporaalisia artefakteja ei tulisi. Kuvittelisin muodon säilyvän siinä kohtaa, ja tuo näyttää enemmän "AI reimagine" tekniikalle.

No syksyyn on aikaa ja demoon on efektit vedetty taatusti yhteentoista, että kaikki näkee miten kuva muuttuu. Ainakin se, että on paljon maskaus ja efektin voimakkuussäätöjä eri asioille olemassa antaa toivoa paremmasta.
 
Minua kyllä häiritsi enemmän se jalkapallo siinä Fifa demossa, se morphaa muotoaan kuin The Thing konsanaan. Kuvakaappauksissa pelaajan käsikin muljuaa aika oudosti.
Niistä tulee kyllä olo, että tuo on kyllä outo yhdistelmä AI kaunistusfiltteriä ja raakakuvakehityssoftan AI automaattiparannusta. Jos tehtäisiin vain pinnan geometrian ja tekstuurien valonheijastuskorjauksia, värikorjausta yms, niin noin pahoja temporaalisia artefakteja ei tulisi. Kuvittelisin muodon säilyvän siinä kohtaa, ja tuo näyttää enemmän "AI reimagine" tekniikalle.

No syksyyn on aikaa ja demoon on efektit vedetty taatusti yhteentoista, että kaikki näkee miten kuva muuttuu. Ainakin se, että on paljon maskaus ja efektin voimakkuussäätöjä eri asioille olemassa antaa toivoa paremmasta.

Ne jalkapallon breakup-artifaktit on luultavammin frame generoinnista johtuvia ongelmia. Toki voi olla että tämä valaistusefekti myös kärsii temporal disocclusion -ongelmista kuten nämä muutkin ML-tekniikat. Mutta onhan heillä tosiaan aikaa hioa tätä.

Kaikilla optimointikikoilla on omat ongelmansa, eikä mitään aitoa framea ole koskaan olemassa ollutkaan, edes sillä ammattilaisten offline säteenseurantamallinnusohjelmalla. Simuloida voidaan mahdollisimman tarkasti, mutta reaaliaikaiseen suorituskykyyn välttämättä tarvitaan AI-kikkoja. Path Tracingin denoisauskin on tehdään AI:lla, koska on varaa pomputella vain muutamia säteitä pari kertaa, ja loput inferoidaan AI-denoiserilla koska sitä kohinaa on muuten tuhottomasti.
 
Kyllähän noissa demoissakin melkein kaikissa ne DLSS5 kasvotkin näyttää kuitenkin enemmän oikeille valokuvilla, kun ilman DLSS5:sta.
Riippuu aivan täysin siitä että miten niitä alkaa analysoimaan. Mikrodetaileja on enemmän, tekstuurit pääsääntöisesti näyttää tarkemmalta muutenkin, mut sit jos noista yrittäisi analysoida valaistusta niin illuusio hajoaa täysin. Korkeintaan aivan pintapuoleisesti ne voi näyttää ”aidommalta”, sitä kuitenkaan olematta.

Miksei vaan laitettu kunnon tekstuureja siihen alkuperäiseen, en ymmärrä. Tällöin saatais se pt:llä laskettu kunnon valaistus yhdistettynä parempiin tekstuureihin.
Se on mun mielestä ihan selvää, että NVIDIA:n tavoite tässä on juuri se, että voidaan saada tietyllä tapaa realistisempaa materiaalia/niiden valaistusta peleihin.
Eikö me just käyty läpi että tällä tuotettu valaistus ei ole realistista. Ei edes ”tietyllä tapaa”.
 
Mm. Red Dead Redemption 2:n, GTA V:n, Death Stranding 2:n ja Uncharted 2:n parissa työskennelleen animaattorin mietteitä
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Linkki: https://www.youtube.com/watch?v=xKPeN8IQM-Y

(https://forum.beyond3d.com/threads/dlss5-ai-game-visual-transformations.64198/post-2401768)

Tässä viestissä käydään Resident Evilistä kohta jossa DLSS 5 vähät välittää scenen todellisesta valaistuksesta
 
Mm. Red Dead Redemption 2:n, GTA V:n, Death Stranding 2:n ja Uncharted 2:n parissa työskennelleen animaattorin mietteitä
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Linkki: https://www.youtube.com/watch?v=xKPeN8IQM-Y

(https://forum.beyond3d.com/threads/dlss5-ai-game-visual-transformations.64198/post-2401768)

Tässä viestissä käydään Resident Evilistä kohta jossa DLSS 5 vähät välittää scenen todellisesta valaistuksesta

Beyond3D ei toimi ellet luo tunnuksia, mutta video vaikuttaa mielenkiintoiselta.
 
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Linkki: https://www.youtube.com/watch?v=D0EM1vKt36s


Daniel Owen saanut lisää vastauksia DLSS5 kuvan muodostamiseen liittyviin kysymyksiin Nvidian edustajalta.

TLDR = Kyllä kyseessä on edelleen "instagram filtteri" 🤣

EDIT: En huomannu että sama postattu myös uutisen lankaan mutta onpahan nyt kahdessa paikassa muistuttamassa.
 
Viimeksi muokattu:
olikohan ne vuoden takaiset CES aikoihin esitellyt RTX neural materiaalit ja tekstuurit myös vain AI sloppia kun en ole noista kuullut mitään tai sitten mennyt vain ohi.
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Linkki: https://youtu.be/ku1rdOG-c4Y
 
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Linkki: https://www.youtube.com/watch?v=D0EM1vKt36s


Daniel Owen saanut lisää vastauksia DLSS5 kuvan muodostamiseen liittyviin kysymyksiin Nvidian edustajalta.

TLDR = Kyllä kyseessä on edelleen "instagram filtteri" 🤣


Käytännössä tämä tarkoittaisi sitä, että pelinkehittäjien kontrolli efektin hallintaan on lähinnä miten paljon efektin vahvuutta on käytössä tai maskataanko jokin segmentoitu alue kokonaan pois. Voisihan sitä käyttää niin, että maskaa ihmisten kasvot kokonaan pois jos ei halua kasvojen muuttuvan ollenkaan. Järkevämpää lienee vain tiputtaa denoising strength sille tasolle ettei kasvot muutu liian paljon. Jos se nyt on pelinkehittäjälle niin pilkuntarkkaa ylipäätään että malliin ei tule muutoksia kuten esim. tuo Owenin esille tuoma ukon hiusrajan muutos. Ehkä se menee vielä jollain random NPC:llä, mutta päähenkilöllä luultavasti ei.

Screenspace-efektinä tällä on lisäksi ongelmana se, että valaistus ei yllä reunoille asti, vaan ne erottuvat selvästi tummempana alueena.
 
Käytännössä tämä tarkoittaisi sitä, että pelinkehittäjien kontrolli efektin hallintaan on lähinnä miten paljon efektin vahvuutta on käytössä tai maskataanko jokin segmentoitu alue kokonaan pois. Voisihan sitä käyttää niin, että maskaa ihmisten kasvot kokonaan pois jos ei halua kasvojen muuttuvan ollenkaan. Järkevämpää lienee vain tiputtaa denoising strength sille tasolle ettei kasvot muutu liian paljon. Jos se nyt on pelinkehittäjälle niin pilkuntarkkaa ylipäätään että malliin ei tule muutoksia kuten esim. tuo Owenin esille tuoma ukon hiusrajan muutos. Ehkä se menee vielä jollain random NPC:llä, mutta päähenkilöllä luultavasti ei.
Kyllä käytännössä "artistinen säätömahdollisuus" on vaan tyyliin valotuksen ja gamman säätöä niinkun arvelinkin Itse kuvahan tulee edelleen treenattuun lähdedataan verraten ilman että voit mitenkään muuten vaikuttaa. Kyllä ne mainitsi että siinä on mahdollisuus rajoittaa alueita mutta menee aika näpertämiseksi jos pitää kehittäjän ruveta maalailemaan hiusrajoja hahmoilta mihin ei saa koskea jos kyseinen edes mahdollista tehdä. Lisäksi miten kyseinen vaikuttaa kuvan muodostukseen jos kokonaisuudesta leikkaillaan osia pois. AI saattaa hallusinoida ties minkälaisia poikkeavuuksia puutteellisen/vähemmän kattavan datan pohjalta. Eipä tämä ole mitään muuta kuin Toddin tyyppisille starfield kehittäjille suunniteltu oikotie onneen millä pitäis saada taiottua paskasta timantteja. Kuorenalla kuitenkaan kyseessä sen kummempi kuin reaaliajassa "instagram filtterinä" operoiva kuvan loppukäsittelijä.
 
Viimeksi muokattu:
Kyllä käytännössä "artistinen säätömahdollisuus" on vaan tyyliin valotuksen ja gamman säätöä niinkun arvelinkin Itse kuvahan tulee edelleen treenattuun lähdedataan verraten ilman että voit mitenkään muuten vaikuttaa. Kyllä ne mainitsi että siinä on mahdollisuus rajoittaa alueita mutta menee aika näpertämiseksi jos pitää kehittäjän ruveta maalailemaan hiusrajoja hahmoilta mihin ei saa koskea jos kyseinen edes mahdollista. Eipä tämä ole mitään muuta kuin Toddin tyyppisille starfield kehittäjille suunniteltu oikotie onneen millä pitäis saada taiottua paskasta timantteja. Kuorenalla kuitenkaan kyseessä sen kummempi kuin reaaliajassa "instagram filtterinä" operoiva kuvan loppukäsittelijä.

Itse olen ymmärtänyt tämän niin, että DLSS5 ensin segmentoi sen yksittäisen ruudun eri osiin, esim. kasvot, hiukset, tausta. Tällä saadaan aikaan tuo maskaaminen, ja tekoälymalli hoitaa muutokset siihen perustuen, ja pelinkehittäjä voi halutessaan disabloida/enabloida näitä segmenttejä, ja ehkä mahdollisesti myös säätää efektin intensiteettiä jokaisella segmentillä erikseen.

Tässä X:stä poimittu yksinkertainen segmentoitu malli:
Image


Blendaus alkuperäisen kuvan ja tekoälyn luoman tuotoksen välillä sitten päättää miten paljon naama muuttuu, ja miten paljon siihen tulee sitä fotorealismia. Ongelma on se, että mitä enemmän vahvuutta nostaa fotorealismin tuomiseksi tekoälymallista, sitä suuremmalla todennäköisyydellä se tuo naamaan myös muita merkittäviä muutoksia, kuten hiusrajaa, meikkiä tms mikä kuitenkin pysyy vielä alkuperäisen geometrisissä rajoissa. Pääasiallisesti siis ainoa ratkaisu mallin identiteetin pitämiseen kuosissa on rajoittaa tekoälymallin intensiteettiä, mikä vuorostaan rajoittaa myös sitä fotorealismia. Hahmosta saa siis eläväisemmän näköisen vain uhraamalla uskollisuutta alkuperäiselle mallille. Toki jollain kontrasti/gamma säädöllä jotain pientä voi tehdä, mutta pääasiallinen kontrolli on tämä Nvidian dokkarin mainitsema Intensity:

1773961025092.png


Luulisi, että heillä olisi tuon lisäksi kuitenkin vielä muitakin kontrolliasetuksia joita löytyy esim. ComfyUI:ssa. Toki tämä on suoritettava reaaliajassa joten hieman eri kauraa kuin offline kuvien generointi.

Yksi asia mikä tulee mieleen on, että kehittäjät voivat kyllä tehdä muutoksia siihen hahmomalliin tuota DLSS5-tilaa varten, eli kun DLSS5 enabloidaan, voidaan samalla tehdä siihen base frameen haluamiaan muutoksia, joiden pohjalta tuo tekoälymalli voi teoriassa saavuttaa lopputuloksen joka on uskottavampi kuin mitä se olisi ilman pohjamuutoksia. Tällä tavalla voisi ehkä hieman yrittää kiertää jotain muutosta.

Myös tuon screenspace-ongelman kuvan reunoilla voi teoriassa ratkaista laskemalla sen path tracing -valaistuksen pohjalle, mutta tämä olisi tietysti hyvin kallis operaatio. Samalla kuitenkin saisi ne kuvan ulkopuolelta tulevat säteet.
 
Uuden AMD Adrenalinin mukana tuli FSR 4.1 9000-sarjan ratukoille. Täytyypä katsoa huomaanko eroja edelliseen.
 

Statistiikka

Viestiketjuista
303 190
Viestejä
5 160 756
Jäsenet
82 305
Uusin jäsen
Xevvv

Hinta.fi

Back
Ylös Bottom