Keskustelua yliskaalaustekniikoista ja frame generaatiosta Nvidia Dlss, Amd Fsr, Intel Xess, Lossless Scaling

3060 upea valinta jos haluaa 4k silmäkarkkipeliä monitorille. Vanha dlss3 palvelee jos dlss4 liian raskas omalle kortille.
Enpä nyt tiedä mitä vikaa siinäkin kortissa muka on? Hullua että ei edes saada skaalattua kuvaa yli 100 kertaa sekunnissa ku loppuu tehot kesken.
 
Googlettelin niin

lähde videon tekijän pinnattu kommentti
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Linkki: https://www.youtube.com/watch?v=SgZtlyh2aNo

Indyyn sitten varmaan päivitys tulossa, kun jossain materiaalissa oli nimenomaan sitä käytetty esimerkkinä.

Tuntus että FG suhteen on tullut ehkä parannusta joka indyssä näkyy UI / esim. soihdun liekin ympäriltä parantunut. FG override tuntuu toimivan "latest".
 
Eilen testailin muutamssa pelissä.

Borderlands 4:
Kuvassa ei hirveitä eroja yleisesti. Pölypartikkelit ilmestyivät tiettyihin kohtiin, missä niitä ei aimemin näkynyt ollenkaan. Ei oikeastaan mitään viakutusta suorituskykyyn
Overlay näytti Preset M:ää

Avatar:
Overide ei toimi, vaan on inactive tilassa... Olisko sama bugi siis kun indyssä. En koittanut disabloida Ray Reconstructionia.

Jedi Survivor:
Kuva kauttaaltaan todella, siis todella paljon tarkempi. Ko. peli on tunnettu pehmeästä kuvasta, mutta tämä uusi DLSS 4.5 kyllä tekee ihan mielettömän eron. Aavikkoplaneetalla FPS putosi DLSS qualityllä 170 FPS -> 155 FPS
 
Digital foundryn ces-videossa oli yksi huomio mitä en ole muualla nähnyt. DLSS4.5:en ajetaan nyt ennen tonemappingia ei sen jälkeen. Tarkoittaa partikkeleille ja pienille yksityiskohdille yms. että on enemmän dataa käytössä ja näkyvät siten paremmin ja oikeammin. Aikaisemmemmissa versioissa kun ajetaan dlss tonemappingin jälkeen on pienemmän tarkkuuden bufferit käytössä mistä on mahdollisesti kadonnut yksityiskohtia.

Mielenkiinnolla odotan digital foundryn syvällisempää videota mitä parannuksia löytävät ja missä vielä on virheitä jäljellä.
 
Digital foundryn ces-videossa oli yksi huomio mitä en ole muualla nähnyt. DLSS4.5:en ajetaan nyt ennen tonemappingia ei sen jälkeen. Tarkoittaa partikkeleille ja pienille yksityiskohdille yms. että on enemmän dataa käytössä ja näkyvät siten paremmin ja oikeammin. Aikaisemmemmissa versioissa kun ajetaan dlss tonemappingin jälkeen on pienemmän tarkkuuden bufferit käytössä mistä on mahdollisesti kadonnut yksityiskohtia.

Mielenkiinnolla odotan digital foundryn syvällisempää videota mitä parannuksia löytävät ja missä vielä on virheitä jäljellä.

Itekki eilen kattelin ton DF:n videon. On kyllä hyvä muutos tuo. Paljon paremmin tosiaan nyt erottuu partikkelit / kiiltävät ja kirkkaat pienet yksityiskohdat. Tuon huomasi jo Borderlands 4:ssa, kun tuli ihan uusia pölypartikkeleja näkyviin aurinkoisessa metsässä.
 
Digital foundryn ces-videossa oli yksi huomio mitä en ole muualla nähnyt. DLSS4.5:en ajetaan nyt ennen tonemappingia ei sen jälkeen. Tarkoittaa partikkeleille ja pienille yksityiskohdille yms. että on enemmän dataa käytössä ja näkyvät siten paremmin ja oikeammin. Aikaisemmemmissa versioissa kun ajetaan dlss tonemappingin jälkeen on pienemmän tarkkuuden bufferit käytössä mistä on mahdollisesti kadonnut yksityiskohtia.

Mielenkiinnolla odotan digital foundryn syvällisempää videota mitä parannuksia löytävät ja missä vielä on virheitä jäljellä.
Mitenköhän tuo on saatu tehtyä, kun dll swapilla saadaan uusi dlss versiokin käyntiin? Onko sille dll:lle ennenkin annettu myös tonemappaamaton kuva?

FSR käyttää kans tonemappaamatonta kuvaa. Ehkä on nvidian kaverit sieltä apinoinu idean.
 
Enpä nyt tiedä mitä vikaa siinäkin kortissa muka on? Hullua että ei edes saada skaalattua kuvaa yli 100 kertaa sekunnissa ku loppuu tehot kesken.
Ekaa kertaa toivoisin, että täällä olisi downvote button. Kortti on ok, mutta ei sitä enää pitäisi laittaa uutena tuotantoon!
 
9kk takaperin Lossless Scalingiin lisättii Adaptive Frame Generation.
Yllättävän nopeasti nvidia lisäsi saman ominaisuuden nimellä Dynamic Multi Frame Generation.

Itse jotenkin oletin että tuota ominaisuutta säästeltäisiin seuraavaan sukupolveen perustein että tarvitaan taas joku rautaan pohjautuva optical flip hilavitkutin.
 
Itse jotenkin oletin että tuota ominaisuutta säästeltäisiin seuraavaan sukupolveen perustein että tarvitaan taas joku rautaan pohjautuva optical flip hilavitkutin.
Nvidia korvasi optical flow kiihdyttimen neuroverkolla dlss4:ssa. Vaatii toki tensoriytimiltä suorituskykyä. Framejen saattamisessa oikeaan aikaan ruudulle pienellä latenssilla on joku piillä toteutettu mekanismi
 
Tulipa testattua DLSS 4.5 Gta V:ssä ja siinä sanoisin, että huonompaan suuntaan meni. Rososemmat reunat ja shimmeringiä esiintyy enemmän. FPS hittiä tuli karkeesti semmonen ~20 fps. Battlefield 6:ssa en huomannut eroa.

Lisäksi L presetillä hakkas kokoajan power limittiin ja M presetilläkin ajoittain, vaikka kortti on alivoltitettu. Pakko tuota kuitenkin melkeempä on käyttää, koska auton perässä esiintyvä ghosting loppui ja se on iso plussa. Toisena plussana eipä oo enään prossu pullonkaulana.
 
Jos löytyis 4090/5090 koneesta niin tuota varmaan kokeilisin samoilla asetuksilla. Ilmeisesti joku piilotettu graphic presetti tuolle pelille joka aktivoidaan konsolin kautta.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Linkki: https://www.youtube.com/watch?v=WhYj_IuV7WA
 
Näyttävät jotenkin menevän ristiin nuo DLSS Swapperin ja nVidia Appin tarjoaminen dll:ien presetit.

RTX 5090 - Tainted Grail: The Fall of Avalon @ 5120x2160 DLSS 66% (Quality)

photo_2026-01-06_19-40-36.jpg


Preset J ja K ovat nVidian kautta tehtynä selvästi pehmoisempia kuin "latest", L tai M. Kaikki parempia kuin alkup dll. Preset M selvästi paras DLSS Swapperilla, mutta kyllä tuo suorituskykyhitti on vähän liikaa.

edit: lisätty vielä muistinkäyttö

photo_2026-01-06_19-54-37.jpg
DLSS Swapperissa näyttäisi olevan bugi, että valittu preset ei säily. NVidia overlayssä SR OVR ei myöskään näytä vaihtuvan vastaamaan käytettyä presetiä Swapperia käytettäessä, vaikka nVidia Appin kautta vaihdettuna kyllä toimii. Jotain eroa noissa dll-tiedostoissa siis on, mikä näkyy myös erilaisena muistinkäyttönä. Tein vähän lisää testejä niin, että vaihdoin DLSS Swapperissa presetiä niin monta kertaa, että se oikeasti säilyi valittuna eikä vaihtunut itsestään "default"-asentoon. Nyt fps:t ainakin vastaavat toisiaan.

1767848513642.png
 
DLSS Swapperissa näyttäisi olevan bugi, että valittu preset ei säily. NVidia overlayssä SR OVR ei myöskään näytä vaihtuvan vastaamaan käytettyä presetiä Swapperia käytettäessä, vaikka nVidia Appin kautta vaihdettuna kyllä toimii. Jotain eroa noissa dll-tiedostoissa siis on, mikä näkyy myös erilaisena muistinkäyttönä. Tein vähän lisää testejä niin, että vaihdoin DLSS Swapperissa presetiä niin monta kertaa, että se oikeasti säilyi valittuna eikä vaihtunut itsestään "default"-asentoon. Nyt fps:t ainakin vastaavat toisiaan.

1767848513642.png
Rajusti dippaa suorituskyky kyllä uusilla malleilla. Saako fps:n takaisin tonne 150-160fps paikkeille balanced tilalla ja onko silloin peli visuaalisesti parempi vai huonompi ku vanhalla mallilla qualityllä?
 
Rajusti dippaa suorituskyky kyllä uusilla malleilla. Saako fps:n takaisin tonne 150-160fps paikkeille balanced tilalla ja onko silloin peli visuaalisesti parempi vai huonompi ku vanhalla mallilla qualityllä?
Tässä ajettu vakio-dlss:llä ja nVidian kautta uusimmalla 4.5 Preset M. Kuvanlaadusta on vaikea stillishottien perusteella sanoa paljoa, mutta DLAA:lla Preset M selvästi terävämpi kuin vakiona. Kuten odottaa sopii -27 %:n pudotuksella. Muissa erot yllättävän pieniä.

Jopa Ultra Performance on täysin kelvollinen 4.5:llä ja huomattavasti parempi kuin vakiona. Liikkuvasta kuvasta on hankala tehdä järkevää vertailua, joten erot voivat siinä olla selkeämpiä. Meikäläinen voisi oikeastaan käyttää näistä Preset M -asetuksista ihan mitä vain, vaikka DLAA vetää kyllä selvän kaulan.

Mitä kysymykseesi tulee, niin Preset M Balanced on parempi kuin vakio Quality. Preset M Performancekin on kuvanlaadullisesti parempi.

1767878420817.png
 
Tässä ajettu vakio-dlss:llä ja nVidian kautta uusimmalla 4.5 Preset M. Kuvanlaadusta on vaikea stillishottien perusteella sanoa paljoa, mutta DLAA:lla Preset M selvästi terävämpi kuin vakiona. Kuten odottaa sopii -27 %:n pudotuksella. Muissa erot yllättävän pieniä.

Jopa Ultra Performance on täysin kelvollinen 4.5:llä ja huomattavasti parempi kuin vakiona. Liikkuvasta kuvasta on hankala tehdä järkevää vertailua, joten erot voivat siinä olla selkeämpiä. Meikäläinen voisi oikeastaan käyttää näistä Preset M -asetuksista ihan mitä vain, vaikka DLAA vetää kyllä selvän kaulan.

Mitä kysymykseesi tulee, niin Preset M Balanced on parempi kuin vakio Quality. Preset M Performancekin on kuvanlaadullisesti parempi.

1767878420817.png
Oon myös lukenut kommentteja että M yliterävöittää kuvaa Quality/DLAA ja toimii parhaiten performance tilassa "hintaansa" nähden. Mutta toki eroja peleissä ja siitä mikä on preferenssi terävyydessä esim.
 
Tosiaan jostain syystä nvidia ei ole saanut ray reconstructionia vielä 4.5 aikaan, joten jos RR laittaa päälle, presetti vaihtuu vanhempaan "K" vaikka yrittäisi pakottaa "M" (indy aw2 jne).
 
Mitä kysymykseesi tulee, niin Preset M Balanced on parempi kuin vakio Quality. Preset M Performancekin on kuvanlaadullisesti parempi.

1767878420817.png
Mutta vasta ultra performance pääsee vähintään samaan suorituskykyyn kuin vanha quality. Melkosta. Pikseleitä ehditään siis laskea vain neljännes vanhasta kun kaikki aika menee skaalatessa.
 
Model M on kyllä turhan raskas DLAA-Quality-Balanced-moodeille, vaikka onkin nVidian mukaan oivallinen myös näille. Edellisen version K suorituskyvyltään monessa tilanteessa sopivampi.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Linkki: https://x.com/GeForce_JacobF/status/2008589232412184621
 
Model M on kyllä turhan raskas DLAA-Quality-Balanced-moodeille, vaikka onkin nVidian mukaan oivallinen myös näille. Edellisen version K suorituskyvyltään monessa tilanteessa sopivampi.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Linkki: https://x.com/GeForce_JacobF/status/2008589232412184621

Noi on varmaan hyviä vanhemmille peleille joilla muuten mentäisiin jo modernin näyttöpäätteen hertseistä yli, tai jos peli on pahasti prossurajoitteinen. Muuten itse ainakin preferoisin 240fps outputtia.
 
Model M on kyllä turhan raskas DLAA-Quality-Balanced-moodeille, vaikka onkin nVidian mukaan oivallinen myös näille. Edellisen version K suorituskyvyltään monessa tilanteessa sopivampi.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Linkki: https://x.com/GeForce_JacobF/status/2008589232412184621

Oletan että puhut nyt 4000 tai 5000 sarjasta?
Kaikille muille kai 4.5 on järjetön.
 
Oletan että puhut nyt 4000 tai 5000 sarjasta?
Kaikille muille kai 4.5 on järjetön.
Tuohon 20x0 ja 30x0 sarjan hitauteen löytyi hyvä syy. Niissä ei ole kunnon fp8 tukea niin fp8:sta käyttävä malli on hidas ajaa. Sama syy kuin miksi fsr4:sta ei saa rdna3:lle. Nvidia sentään tarjoaa dlss4.5:en vanhoille korteille niin käyttäjä saa valita ottaako vanhan nopeamman algoritmin vai uuden hitaamman mutta parempilaatuisen. Jossain kohtaa sama tapahtuu 40x0:lle kun dlss5 tms. alkaa käyttämään nvfp4:sta mikä löytyy vain 50x0 sarjasta.
 
Tuohon 20x0 ja 30x0 sarjan hitauteen löytyi hyvä syy. Niissä ei ole kunnon fp8 tukea niin fp8:sta käyttävä malli on hidas ajaa. Sama syy kuin miksi fsr4:sta ei saa rdna3:lle. Nvidia sentään tarjoaa dlss4.5:en vanhoille korteille niin käyttäjä saa valita ottaako vanhan nopeamman algoritmin vai uuden hitaamman mutta parempilaatuisen. Jossain kohtaa sama tapahtuu 40x0:lle kun dlss5 tms. alkaa käyttämään nvfp4:sta mikä löytyy vain 50x0 sarjasta.
Pasi-ipa:lla jolla siis suorituskyky dippaa jopa yli kolmanneksen on 5090. Qualitystä joutuu tiputtamaan laatua aina ultra performance asti jotta suorituskyky on vähintään sama kuin ennen.

Joku vanhemman genin kortti on varmaan sit aivan kelvoton vastaavalla pelillä ja resoluutiolla.
 
Miksi kukaan käyttäisi tuollaista mikä paskoo suorituskyvun täysin. Ainakin itsellä DLSS pointti on parantaa sitä fps:ää reippaasti. Omaan silmään perus DLSS 4 performance näytti jo niin hyvältä 4k:lla että en natiivin oikein eroa huomannut.
 
Miksi kukaan käyttäisi tuollaista mikä paskoo suorituskyvun täysin. Ainakin itsellä DLSS pointti on parantaa sitä fps:ää reippaasti. Omaan silmään perus DLSS 4 performance näytti jo niin hyvältä 4k:lla että en natiivin oikein eroa huomannut.
Jos suorituskyky on riittävä tuosta huolimatta, esim. 4k240. Vanhoja dlss pelejä alkaa olemaan jo markkinoilla aika paljonkin.
 
Miksi kukaan käyttäisi tuollaista mikä paskoo suorituskyvun täysin. Ainakin itsellä DLSS pointti on parantaa sitä fps:ää reippaasti. Omaan silmään perus DLSS 4 performance näytti jo niin hyvältä 4k:lla että en natiivin oikein eroa huomannut.
Ei se mitään täysin pasko, paitsi vanhoilla 2000 ja osin 3000 sarjan korteilla. Niillä ei varmaan kannata käytellä. Toki tuo on tapauskohtaista, milloin kannattaa käyttää mitäkin versiota. Jos on tarpeeksi headroomia suorituskykypuolella, niin kuvanlaadun parannus on monessa pelissä kyllä aika iso. Itse en edes harkitsisi esim. Jedi Survivorin pelaamista ilman tuota 4.5 versiota, jos vaan suinkin riittää potku kortissa pyörittämään sitä.
 
Ja varmasti taas 6000-sarjalaisilla ei ota niin kovaa suorituskykyhittiä.
Hyvähän se on että laatua parannetaan, vaikka itse pidin jo aikaisempaa versiota lähes täydellisenä.
 
Saahan ja toimii oikein mainiosti. Advanced Marketing Disaster vaan toki perseilee ja suututtaa vanhat asiakkaansa, kun eivät halua julkaista sitä virallisesti.

Edit: sori tuli moneen kertaan. Netti sekoilee.
Ei se virallinen versio toimi kun käyttää käskyjä mitä ei vanhasta raudasta löydy. Joku on toki voinut hakkeroida uuden version missä koodia on kirjoitettu uusiksi. Ne kooditkinhan oli hetkenaikaa vahingossa julkisena jaossa github:ssa. Laskettaneen kuitenkin mun postauksen kontekstissa se mitä valmistaja virallisesti tekee ja tukee eikä sitä mitä joku hakkeri on kotona vääntänyt ja minkä toimivuus ja laatu on hakkerin käsissä. "nvidia sentään tarjoaa", olisin voinut jatkaa "amd ei tarjoa" ja ihan tottahan tuo on, hakkeri ei ole amd.
 
Ei se virallinen versio toimi kun käyttää käskyjä mitä ei vanhasta raudasta löydy. Joku on toki voinut hakkeroida uuden version missä koodia on kirjoitettu uusiksi.
Tässä tapauksessa mainitsemasi ”hakkerit” on amd:n työntekijöitä.

Amd siis itse (epähuomiossa) julkaisi esituotantoversion int8 mallista.
 
Tässä tapauksessa mainitsemasi ”hakkerit” on amd:n työntekijöitä.

Amd siis itse (epähuomiossa) julkaisi esituotantoversion int8 mallista.
Joka oli graafien valossa suht hidas siihen alkuperäiseen verrattuna
 
Ei se virallinen versio toimi kun käyttää käskyjä mitä ei vanhasta raudasta löydy. Joku on toki voinut hakkeroida uuden version missä koodia on kirjoitettu uusiksi. Ne kooditkinhan oli hetkenaikaa vahingossa julkisena jaossa github:ssa. Laskettaneen kuitenkin mun postauksen kontekstissa se mitä valmistaja virallisesti tekee ja tukee eikä sitä mitä joku hakkeri on kotona vääntänyt ja minkä toimivuus ja laatu on hakkerin käsissä. "nvidia sentään tarjoaa", olisin voinut jatkaa "amd ei tarjoa" ja ihan tottahan tuo on, hakkeri ei ole amd.
Kannattaisi perehtyä asiaan enemmän. Se vuotanut INT8 versio oli ihan aito AMD:n kehittämä ratkaisu mitä eivät vaan tähän mennessä ole virallisesti julkaisseet. Laatu on käytännössä yhtä hyvä kuin virallisella FP8 versiolla ja suorituskykykin oikein kelvollinen varsinkin 7000-sarjan paremmilla näyttiksillä. Tämä on käytännössä aivan sama kikka kuin se, millä NVIDIA sai DLSS4:n toimimaan 20- ja 30 series näyttiksillä, missä ei ole myöskään tukea FP8 käskykannalle. Sehän tässä sylettääkin, kun AMD:lla on fine wine / pro-consumer maine ja nyt kairaavat lojaaleja asiakkaitaan ahteriin pihtaamalla toimivan ratkaisun julkaisemista.
 
Joka oli graafien valossa suht hidas siihen alkuperäiseen verrattuna
Ja suht paljon paremman näköinen. Suorituskykydroppi on vastaava ku tänne linkatut foorumilaisen ajamat tulokset antaa ymmärtää dropin olevan näissä uusissa nvidian kikkareissa 5090 kortilla korkealla resoluutiolla ja ruudunpäivitysnopeudella pelattaessa.
 
Joka oli graafien valossa suht hidas siihen alkuperäiseen verrattuna
Riippuu näyttiksesta. Jollain 6000-series hinnat alkaen mallilla joo, mutta moni silti käyttäisi mielellään tätä TAA:n korvikkeena, vaikka varsinaista suorituskykylisää ei tulisikaan. Ja edelleen: ihan samalla tavalla DLSS4 toimii hitaammin 20 ja 30-series näyttiksissä, kun niissä ei ole natiivia FP8 tukea. NVIDIA antoi silti heille mahdollisuuden käyttää sitä, toisin kuin AMD.

edit: lisäksi RDNA3 sarjassa on FP16 tuki jolle olisi ehkä mahdollista tehdä vielä parempi FSR4 porttaus jos AMD:ta kiinnostelisi yhtään.
 
esim 7000 sarjan nopeammilla korteilla tuo AMD:n kehittämä FSR4 int8 malli rullaa aika hyvin. Selvästi paremmin kuin vaikka tänne laitetut 5090 esimerkit nvidian uusimman tuotoksen kanssa, jos verrataan vain prosenteissa suhteellista suorituskykyä uusimmalla mallilla vs. vanhempi.
1767964700804.png

6000 sarjan keskitasolla tilanne on selvästi huonompi ja tulee joku kova limitti vastaan balanced skaalaustason jälkeen:
1767964778576.png


Hyvä on kanssa muistaa että FSR4 on hitaampi kuin FSR3.1 myös 9000 sarjan näyttiksillä. Eli joku droppi 3.1 -> FSR4 tapahtuu joka tapauksessa. Int8 mallin pudotus ei tossa 7000 sarjan esimerkillä ole ihan kauheasti isompi kuin mitä 3.1 -> 4 pudotus 9070xt:llä vaikkapa.
 
esim 7000 sarjan nopeammilla korteilla tuo AMD:n kehittämä FSR4 int8 malli rullaa aika hyvin. Selvästi paremmin kuin vaikka tänne laitetut 5090 esimerkit nvidian uusimman tuotoksen kanssa, jos verrataan vain prosenteissa suhteellista suorituskykyä uusimmalla mallilla vs. vanhempi.
Onko tossa Ratchet & Clankissä siis natiivi fps sama kuin pasi-ipan esimerkissä (mihin kai viittasit)? Jos ei niin vertaus ei toimi.

Esim. skenaariossa A natiivi frametime 100ms ja upscale pass 10ms siihen päälle. Skenaariossa B natiivi 10ms ja siihen 3ms.

Tästä ei kannata päätellä että skenaariossa B on ikävän raskas upscale, koska fps putosi prosentuaalisesti enemmän kuin skenaariossa A.
 
Onko tossa Ratchet & Clankissä siis natiivi fps sama kuin pasi-ipan esimerkissä (mihin kai viittasit)? Jos ei niin vertaus ei toimi.
Ei varmasti ole sama, sillä ilman vsynciä FPS:n lukitseminen johonkin tiettyyn arvoon lienee jotakuinkin mahdotonta. Se olisi myös testaamisen kannalta haastavaa. Lisäksi en ainakaan screeshotista osaa päätellä että onko tossa RT päällä vai ei, mikä vaikuttaisi FPS:ään paljonkin. Jos oletetaan että tuo on max non-RT, niin fps rullaisi noin 120 paikkeilla quality skaalausasetuksilla. pasi-ipalla quality vanhalla mallilla oli ~160, ei siis ihan kovin kaukana.

Tällöin int8 quality olis vielä yli 100 fps, siinä missä toi nvidian kikkare tippuu qualityllä 162 -> 113 fps.
Esim. skenaariossa A natiivi frametime 100ms ja upscale pass 10ms siihen päälle. Skenaariossa B natiivi 10ms ja siihen 3ms.

Tästä ei kannata päätellä että skenaariossa B on ikävän raskas upscale, koska fps putosi prosentuaalisesti enemmän kuin skenaariossa A.
Ihan totta. Kunnollisia testejä odotellessa.
 
Kyllähän se säteenseurantakin toimii ilman dedirautaa. Kuinka hyvin? Ei nyt puhuta yhtä isosta erosta tässä tapauksessa, mutta taitaa Nvidiallakin olla se joku minimum target mihin DLSS:n pitää pystyä frameja prosessoimaan, oliko 2ms.

Tässä pyritään rinnastamaan melko erilaisia asioita muka samanlaisiksi/symmetriseksi tilanteeksi.

Raudalla tehdyt törmäystarkastusyksiköt ovat helposti > 10x nopeampia kuin shader-softalla tehty säteenjäljitys. Ja se > 10x ero on merkittävä, että se >10x hitaampi olisi käyttökelvoton mihinkään reaaliaikaiseen grafiikkaan.

Dedikoidut matriisiyksiköt (kuten nvidian tensoriytimet) taas ovat usein samalla laskentarkkuudella pikemminkin luokkaa 2-3x nopeampia matriisilaskennassa verrattuna siihen mitä helposti saadaan näyttiksen normaalista SIMD/SIMT-datapolusta nopeutta irti samalla hinnalla ja vaivalla.

Toki suurempia eroja on sitten tullut kun on verrattu eri laskentatarkkuuksien välillä, esim. käytetty 32-bittistä laskentatarkkuutta shadereilla ja 8-bittistä laskentatarkkuuta matriisiyksiköllä, mutta esim. AMDllä on nykyisissä näyttiksissään (RDNA3sta lähtien) ihan shadereissa nopea tuki esim. dot4-operaatioille 8-bittisellä tarkkuudella ja dot8-operaatioille 4-bittisellä tarkkuudella, että ei ole mitään tarvetta käyttää normaalissa shader-koodissa hitaampaa suurempaa laskentatarkkuutta.

Niissä DLSSn algoritmeissa ei ole mitään mitä ei voisi siedettävällä suorituskyvyllä ajaa ilman tensoriyksiköitä RDNA3lla tai RDNA4lla, suorituskyky olisi vaan vähän huonompi.

Toki jollain sellaisella muinaisnäyttiksellä jossa normaalissa shader-käskykannassa ei ole mitään matalan tarkkuuden pistetulokäskyjä se suorituskyky voisi sitten olla "liian huono" ollakseen käyttökelpoinen. Mutta tällöin puute on enemmän siinä matalan tarkkuuden aritmetiikassa kuin tensoriyksiköissä.


Dedikoidut matriisiyksiköt on kiva asia matriisilaskentaan, muttei todellakaan mikään välttämättömyys.
 
Viimeksi muokattu:
tuosta sitten niitä "hämäriä latauksia" Reddit - The heart of the internet
postauksen pohjalla on linkki mistä saa int8 version.

vaikuttaisi olevan ihan perus .dll swap juttu.
2 eri kansiota toinen on optiscaleri jos ei ole fsr4 tukea pelissä ja toinen sisältää ne 3 .dll filua jossa on int8 versio.
moninpelejä tuskin kannattaa pelailla noilla virityksillä
 

Statistiikka

Viestiketjuista
297 198
Viestejä
5 068 264
Jäsenet
81 267
Uusin jäsen
Smaleksi

Hinta.fi

Back
Ylös Bottom