NVIDIA-spekulaatioketju (Blackwell ja tulevat sukupolvet)

Alan wake 2:lla pääsee testaileen uusia ominaisuuksia

1736291319852.png
 
Vähän kiinnostaa nyt kuitenkin toi 5070 vielä. Tohon hintaluokkaan se ostos kuitenkin osuu ja 2080 Superin jälkeen suorituskykyparannusta tulee varmasti. Toki toivon, että AMD lyö edes yhtä hyvän vaihtoehdon lauteille. Silloin saatan lähteä siihen kelkkaan 16GB:n vuoksi ja myös ihan vaan sen takia, että mä oon lopen kyllästynyt kaiken maailman valehtelijoihin. Toi 5070 = 4090kun aliarvioi ihmisten älykkyyttä hyvin ärsyttävästi. Ei jaksais enää tässä maailmassa tollasta yhtään.
 
No se jos uskoo valmistajan omia best case scenario lukuja mihin on otettu kaikki kikat käyttöön on vähän niinkun oma syy. Jos tähän uskoi kovinkaan kauaa niin lähdekriittisyys ja medialukutaito vois olla asioita mitä kannattaa treenata niin ei tuu kusetetuks sit jatkossa.

Mua sinällänsä aika vähän haittaa toi koska jos ei se aiemmissa sukupolvissa ollu selkeetä niin jospa se nyt viimeistään olis et nyt ja tulevaisuudessa pelejä ei tulla enää renderöimään natiiviresolla, vaan huomattavasti alemmalla jota ylösskaalataan. Ja vissiinkin myös tapauskohtasesti taiotaan kolme lisäframea yhden renderöidyn kyytipojaks jolla sit saadaankin aika korkeat framet ilman että varsinaisesti ees hiki tulee. Mut se ongelma onkin sit se et kaikki temput ei onnistukkaan ihan jokasessa pelissä ja nVidia esimerkiks mainostaa et 75 peliä/ohjelmaa tukee julkasussa. Se ei oo ihan kauheasti, eikä tulevaisuudessakaan jokaikinen peli tuu tukemaan tota DLSS Frame Geniä. Tai RT:tä. Alkaa niitä aika monessa pelissä kyllä olemaan, mut ennenkun kattavuus on 100% niin tekee sillä rasterisaatiollakin jotain. Lisäks riippuen kumpi firma avaa lompakkoaan voi olla et pelistä puuttuu joko FSR tai DLSS jonka sit modaajat puukottaa perästä mukaan tarpeen vaatiessa.

Toki nää skaalaustekniikkojen käyttötarkotukset on kokenut tässä vuosien aikana aika ikävän muutoksen myös. Ennen niitä käytettiin et saatiin pelattava framerate korkeammaks että päästiin lähemmäs näytön virkistystaajuutta, nykyään niitä käytetään siihen et saadaan se 20fps natiivina renderöity lukema sinne pelattavuuden nurkille edes. Mut se on sit eri aihe jo ja tuskin tulee myöskään muuttumaan.
 
Joo, mut olihan toi nyt jo niin tökeröä vedätystä, että mulla meni maku koko hommaan. Inhoan mainoksia ja businesspuhetta muutenkin.

En sinänsä tee oikein mitään koko DLSS:llä kun pelaan enimmäkseen vanhempia pelejä ja tarve uudelle kortille tulee lähinnä VR-puolen peleistä. Niissä sitten ei vissiin tee ray tracingillä kovinkaan paljoa (vai?). Et joo, jään siis vielä odottamaan mitä AMD tarjoaa ja sitten lähtee jompikumpi ton tason kortti kassiin. Hinta on jokseenkin ok. Just ton verran mä suunnittelin törsääväni.
 
Ei kyllä jaksa innostua muutamasta generoidusta framesta lisää. Sen muutaman kerran kun frame generationille olisi ollut kunnolla tarvetta (fps jossain 50-80 haarukassa), on se ollut käyttökelvoton koska hiiren tuntuma menee ihan puuroksi. 5000-sarjan lisäframet tuovat nyt vielä lisää viivettä tuohon. Sitten kun frameratea on riittävästi että ominaisuutta voisi käyttää, ei sille ole niin enää tarvetta. Ehkä jossain padipeleissä, ja tietty hyvä ominaisuus niille jotka eivät huomaa tai välitä kasvavista viiveistä.

Muut softapuolen päivitykset kuulostavat paljon hyödyllisemmiltä ja ne tulevat myös vanhoille korteille mikä on oikein mieluisa päätös Nvidialta.
 
Hemmetti. Jotain tällästä muistelinkin et jossakin valmiiks blokitetussa on ollu ongelmia jäähtymisen kanssa ja muutakin sanottavaa. Oliks joku vielä sellanen et ei jäähyttäny kunnolla muisteja tai virransyöttöä tjsp?
Gigabyten 3080Ti waterforcen blokissa ainakin oli alumiinia kontaktissa jäähdytysnesteeseen. Useasti näissä on ylläreitä, Mutta ei aina.
 
Torissakin myydään 2000e 4090, mietin pitäskö pistää rahoiksi ja tienata pari satkua tästä FE ja tilata hitaampi 5080.
En usko että on kovin paljoa tätä nopeampi, yksi dlss4 ei kyllä riitä, se ois ostettava tuo 5090 ja se on aivan liian kallis.
Eri asia jos harrastais oikein kunnolla AI juttuja niin sitten, mutta tällä jaksaa odotella vielä yhden sukupolven.
 
Viimeksi muokattu:
Itteä noin "peruspelailijana" kiinnostaa lähinnä 5060 että paljonko se on 3060 nopeampi. Kun on vieläkin ollut maltillinen 1440p näytön ja asetusten kanssa, niin Elden Ringit jne. on pyörineet ihan ok 3060 näyttiksellä. 5060 upgradella ei sitten tarttis murehtia siitä riittääkö virtalähde sun muut.
 
ite vähän ajattelin kattella että kun tulee dlss 4:n parannukset yleensäkkin, kattoa miten taipuu oma 4090 ennen ku alkaa luopumaan tästä.
 
Videoiden perusteella näyttää että ilman DLSS:ää teho erot cyperbunkissa 7-9 fps luokkaa 4090 vs 5090. :S Aika tuhnu.
 
Ohan se nyt ihan huippujuttu jos saat vaikka 20€ hyvää kuvaa suoraan LG telkkariin eikä tarvii miettiä yhtään mitään sopiiko tämä ylihintainen kortti tähän laitteistoon kuten nykyään.

Tässä on vähän kuin leffojen ja musiikin kanssa. Harrastajat harrastaa fyysisten kiekkojen/pelien/raudan kanssa ja loput pelaavat/katsovat/kuuntelevat pilvestä tuotetta kuukausimaksua/kertakorvausta vastaan. Niin kauan kuin markkinaa on fyysiselle raudalla niin sitä joku tulee kyllä valmistamaan.
 
Itteä noin "peruspelailijana" kiinnostaa lähinnä 5060 että paljonko se on 3060 nopeampi. Kun on vieläkin ollut maltillinen 1440p näytön ja asetusten kanssa, niin Elden Ringit jne. on pyörineet ihan ok 3060 näyttiksellä. 5060 upgradella ei sitten tarttis murehtia siitä riittääkö virtalähde sun muut.

Todennäköisesti se on aika kehno valinta myös peruspelaajalle jos huhut 8 gigan muistista pitää paikkansa. Se kun alkaa jo itsessään kuristaa suorituskykyä vaikka periaatteessa tehoja olisi.

Sen näkee sitten kun tuotteet on julkaistu, mutta vähän epäilen että premiumsarjan alapuolella kannattaa vilkuilla AMD:n tai Intelin tarjontaa.
 
Tässä on vähän kuin leffojen ja musiikin kanssa. Harrastajat harrastaa fyysisten kiekkojen/pelien/raudan kanssa ja loput pelaavat/katsovat/kuuntelevat pilvestä tuotetta kuukausimaksua/kertakorvausta vastaan. Niin kauan kuin markkinaa on fyysiselle raudalla niin sitä joku tulee kyllä valmistamaan.
Leffat ja ja musiikki on täysin eriasia, kuin pelit: Viivellä ei ole niissä mitään väliä. ja voidaan käyttää paljon tehokkaampia pakkausalgoritmejäkin (hitaampi yhteys välttää).
 
Laskentatehoa tässä kaivattais lisää, ei vieläkään mitään saumaa uudemmilla peleillä 4K@240Hz/fps jos sellainen näyttö sattuu olemaan. Graffa-asetuksiakaan laskemalla ei välttämättä fps nouse tarpeeksi, pl. RT jne.

DLSS on hieno systeemi mutta jos pehmeentää kuvaa ja vielä pientä lagia niin joutuu taas arpomaan kompromissien välillä. Olishan se kova juttu jos 5090 olis riittänyt potkua enempi laskentaan ja DLSS yms. jääneet enempi tekohengittämään vanhempien korttien elinikää ja auttamaan uudempia alkaen -malleja. Toki jos paranneltu DLSS toimii paremmin eikä eroa huomaa niin mikäs siinä.

SLI takas ja 2 x 5090 koneeseen! :lol:
 
Videoiden perusteella näyttää että ilman DLSS:ää teho erot cyperbunkissa 7-9 fps luokkaa 4090 vs 5090. :S Aika tuhnu.

Absoluuttiset numerot ei kerro mitään vaan suhteellinen ero. 1fps -> 8-10fps on aika jytky.
Lonkalta ku muistelee niin 4090 pyörittää cyberpunkkia noin 13fps nuilla asetuksilla. Eli jos 5090 menee 21-23 fps niin sehän tarkoittaa noin 50% tehonlisäystä.
 
DLSS4 uusi skaalausmalli voi kasvattaa RTX5000 ja vanhempien korttien välistä tehoeroa. NVIDIAn slidejen perusteella tuo uusi malli vaatii 4x enemmän laskentatehoa, kuin vanha skaalausmalli. Tuosta voisi päätellä, että jos aikaisemmin ruudun skaalaukseen on mennyt vaikka 0,5 ms aikaa RTX4000 sarjan kortilla, niin nyt siihen menisi 2 ms DLSS4 skaalainta käytettäessä. Jos RTX5000 sarjan vastaava kortti pystyy tekemään sen skaalauksen edelleen tuohon 0,5 ms aikaan, niin muodostuuhan tuosta sitten lopullisessa fps-lukemassa aika iso ero jo 60 fps (16,6 ms per frame) tienoolla.
 
DLSS4 uusi skaalausmalli voi kasvattaa RTX5000 ja vanhempien korttien välistä tehoeroa. NVIDIAn slidejen perusteella tuo uusi malli vaatii 4x enemmän laskentatehoa, kuin vanha skaalausmalli. Tuosta voisi päätellä, että jos aikaisemmin ruudun skaalaukseen on mennyt vaikka 0,5 ms aikaa RTX4000 sarjan kortilla, niin nyt siihen menisi 2 ms DLSS4 skaalainta käytettäessä. Jos RTX5000 sarjan vastaava kortti pystyy tekemään sen skaalauksen edelleen tuohon 0,5 ms aikaan, niin muodostuuhan tuosta sitten lopullisessa fps-lukemassa aika iso ero jo 60 fps (16,6 ms per frame) tienoolla.

Vaikuttaisiko tuo ylipäätään muuhun kuin että jokainen ruutu olisi sen 2ms myöhässä? Ymmärtääkseni AI-laskenta tehdään eri ytimillä kuin rasterointi ja säteenseuranta, minkä takia ne ei kilpaile tehosta keskenään. :hmm:
 
DLSS4 uusi skaalausmalli voi kasvattaa RTX5000 ja vanhempien korttien välistä tehoeroa. NVIDIAn slidejen perusteella tuo uusi malli vaatii 4x enemmän laskentatehoa, kuin vanha skaalausmalli. Tuosta voisi päätellä, että jos aikaisemmin ruudun skaalaukseen on mennyt vaikka 0,5 ms aikaa RTX4000 sarjan kortilla, niin nyt siihen menisi 2 ms DLSS4 skaalainta käytettäessä. Jos RTX5000 sarjan vastaava kortti pystyy tekemään sen skaalauksen edelleen tuohon 0,5 ms aikaan, niin muodostuuhan tuosta sitten lopullisessa fps-lukemassa aika iso ero jo 60 fps (16,6 ms per frame) tienoolla.
Tosin toi ero koskee vain sitä tekoälyinferenssin osuutta koko skaalausprosessista. Osa kokonaisuudesta on kuvan/syvyysdatan ym. prosessointia.

Joskus useampi vuosi sitten developer versiot DLSS:stä näytti ruudulla sen koko prosessointiajan. Ikävä kyllä nykyään ei enää ja se vanha versio ei toimi 40-sarjalaisella muistaakseni. Tota olis kyllä ihan mielenkiintoista tonkia.

Vaikuttaisiko tuo ylipäätään muuhun kuin että jokainen ruutu olisi sen 2ms myöhässä? Ymmärtääkseni AI-laskenta tehdään eri ytimillä kuin rasterointi ja säteenseuranta, minkä takia ne ei kilpaile tehosta keskenään.
:hmm:
Se DLSS prosessointi tulee ihan normaalisti sinne framen loppuun, eli toi vain suoraan lisää frametimeä.
 
Se DLSS prosessointi tulee ihan normaalisti sinne framen loppuun, eli toi vain suoraan lisää frametimeä.

Mutta tarkoitan että voisiko seuraavan framen rasterointi alkaa jo silloin, kun edellisen DLSS-prosessointi on vielä kesken? Jos tämä laskenta tapahtuu erillisillä AI-ytimillä, siihen ei periaatteessa pitäisi olla estettä.
 
Mutta tarkoitan että voisiko seuraavan framen rasterointi alkaa jo silloin, kun edellisen DLSS-prosessointi on vielä kesken? Jos tämä laskenta tapahtuu erillisillä AI-ytimillä, siihen ei periaatteessa pitäisi olla estettä.
Pitäisi onnistua niin että kun DLSS operaatioita tehdään niin seuraavan framen renderöinti aloitetaan tai on jo aloitettu.

E: Eiköhän esim Digital Foundry testaa aikanaan tuon että paljonko framerate tippuu uudella skaalaimella 4000 sarjalla.
 
Mutta tarkoitan että voisiko seuraavan framen rasterointi alkaa jo silloin, kun edellisen DLSS-prosessointi on vielä kesken? Jos tämä laskenta tapahtuu erillisillä AI-ytimillä, siihen ei periaatteessa pitäisi olla estettä.
En nyt äkkiseltään keksi miksi ei teoriassa voisi alkaa, mutta mun käsitykseni mukaan tällaista ei kuitenkaan tehdä vaan se DLSS prosessointiaika tulee täysimääräisenä frametimeen (ja frametimejen keskiarvoon, eivät lomitu). Ja tosiaan DLSS skaalauksesta vain osa tehdään tensoreilla, koko homma vaatii muitakin GPU:n laskentaresursseja sekä muistikaistaa.

Enkä kyllä tiedä onko oikein ajatella tensoriytimien olevan jotenkin erillisiä. Jos mä ajan tekoälysoftaa joka hyödyntää tensoriytimiä niin kyllä se voi syödä tehobudjetista sen 100% ja GPU usaget 100%.
 
Viimeksi muokattu:
En nyt äkkiseltään keksi miksi ei teoriassa voisi alkaa, mutta mun käsitykseni mukaan tällaista ei kuitenkaan tehdä vaan se DLSS prosessointiaika tulee täysimääräisenä frametimeen (ja frametimejen keskiarvoon, eivät lomitu). Ja tosiaan DLSS skaalauksesta vain osa tehdään tensoreilla, koko homma vaatii muitakin GPU:n laskentaresursseja sekä muistikaistaa.

Enkä kyllä tiedä onko oikein ajatella tensoriytimien olevan jotenkin erillisiä. Jos mä ajan tekoälysoftaa joka hyödyntää tensoriytimiä niin kyllä se voi syödä tehobudjetista sen 100% ja GPU usaget 100%.

Olen ymmärtänyt että DLSS:ssä AI:tä käytetään lopputuloksen siistimiseen normaalin skaalauksen artefakteista, eli tensorilaskenta tulisi siihen loppuun.

Sinänsä noi on suunniteltu vähän kehnosti, jos tosiaan olisi niin että kortin virransyöttö ei pysyisi perässä siinä, että tensoriytimiä ja cuda-coreja ajettaisiin samaan aikaan. Niitähän voisi myös ajaa vähän pienemmillä kelloilla niin virtaa riittäisi paremmin. Parin millisekunnin AI-grindaus framejen lopussa ei myöskään vaikuttaisi jäähdytystarpeeseen, kun se riippuu lähinnä pidemmän ajan keskiarvosta.

Periaatteessa vois olla niin, että muistikaista menee AI-laskennassa täysin tukkoon. Tai sitten DLSS:n aiheuttama lisäviive on ollut niin pieni, ettei tuollaista ole vaan katsottu tarpeelliseksi tehdä.
 
Sinänsä noi on suunniteltu vähän kehnosti, jos tosiaan olisi niin että kortin virransyöttö ei pysyisi perässä siinä, että tensoriytimiä ja cuda-coreja ajettaisiin samaan aikaan.
Mietin ite lähinnä niin, että jos kumpikin prosessi voisi hyödyntää 100%:iin asti GPU:n tehobudjettia niin onko siitä sitten kuinka paljon iloa ajaa niitä 50% ja 50% tehoilla samanaikaisesti.

Mutta toki nämä on sen verran monimutkaisia juttuja ettei kaltaisellani tuulipuvulla ymmärrys riitä ja varmaan voi hyvin olla että jotain etua saadaan samanaikaisesta laskennasta. Ja ehkä niin jopa tehdäänkin eikä tämä vain ilmennyt itselleni kun noita frametimejä joskus aikoinaan Nvidian GPU Trace ohjelmalla ihmettelin.
 
Mietin ite lähinnä niin, että jos kumpikin prosessi voisi hyödyntää 100%:iin asti GPU:n tehobudjettia niin onko siitä sitten kuinka paljon iloa ajaa niitä 50% ja 50% tehoilla samanaikaisesti.

Mutta toki nämä on sen verran monimutkaisia juttuja ettei kaltaisellani tuulipuvulla ymmärrys riitä ja varmaan voi hyvin olla että jotain etua saadaan samanaikaisesta laskennasta.

Nokun tehobudjetin käyttäminen ei nosta laskentatehoa lineaarisesti. Esim. jos puolittamalla tehobudjetti saa 80-90% laskentatehosta (arvaus, mutta tuskin kauhean pahasti pielessä), noita voisi hyvin kannattaa ajaa rinnakkain. Siihen täytyy olla joku muu syy.
 
Jep, alan vahvasti epäillä perusteita omalle käsitykselleni, etteikö seuraavan framen renderöintiä aloitettaisi jo DLSS prosessoinnin aikana. Mahdollisesti puhtaasti omaa väärinymmärrystäni tämä... :btooth:

Oli miten oli, tuo uusi transformer pohjainen DLSS vaikuttaa kyllä lupaavalta. Vaikka prosessointi olisikin hieman raskaampaa sitä kompensoisi se, että performance mode ei luultavasti enää ole yhtä karun näköinen kuin nykyään ja voisi laskea sitten Q -> P tms.
 
Oli miten oli, tuo uusi transformer pohjainen DLSS vaikuttaa kyllä lupaavalta. Vaikka prosessointi olisikin hieman raskaampaa sitä kompensoisi se, että performance mode ei luultavasti enää ole yhtä karun näköinen kuin nykyään ja voisi laskea sitten Q -> P tms.
En tiedä onko minulla jo näkö huonontunut, mutta tuossa kun pelaillut God of Waria ja vaihdellut natiivin 4k ja DLSS-perffin välillä niin tuntuu että en näe mitään eroa missään. Peli vain pyörii paremmin ja pienemmällä tehonkulutuksella DLSS kanssa. Ehkä tuo on vain suosiollinen peli DLSS:lle ettei eroa ole mutta tuo transformer based model kyllä varmaan mahdollistaa useassakin pelissä juurikin qualityn tiputtamisen perf moodiin eikä eroa välttämättä huomaa.
 
En tiedä onko minulla jo näkö huonontunut, mutta tuossa kun pelaillut God of Waria ja vaihdellut natiivin 4k ja DLSS-perffin välillä niin tuntuu että en näe mitään eroa missään. Peli vain pyörii paremmin ja pienemmällä tehonkulutuksella DLSS kanssa. Ehkä tuo on vain suosiollinen peli DLSS:lle ettei eroa ole mutta tuo transformer based model kyllä varmaan mahdollistaa useassakin pelissä juurikin qualityn tiputtamisen perf moodiin eikä eroa välttämättä huomaa.
Tuossa vaikuttaa näytön/telkkarin koko ja etäisyys.
Itse pelailen 42" 4k näytöllä ja DLSS balanced näyttää mielestäni oikein hyvältä, ehkä ihan pientä eroa qualityyn kun oikein etsimällä etsii. Performancella sitten kuva alkaakin jo muuttua selvästi suttuisemmaksi, mutta jos siirtyisin metrin pari kauemmaksi niin en varmaan huomaisi mitään eroa tuohon balancediin.
 
Saapa nähdä testien ja arvostelujen jälkeen jatkaako sitä vielä 3080 Ti:llä jonkin aikaa eteenpäin. Tonnin luokkaa voisi laittaa rahaa korttiin ja 5070 Ti nyt siihen aikalailla menee, mutta onko sitten tarpeeksi tehoeroa.

5080 muutaman satasen kalliimpi ja ei taida olla wörtti varsinkin kun saman verran muistiakin sisässä.
Itse päivitellyt kun on saanut noin tuplat oikeita freimejä lisää GTX 1070, RTX 3080 ja nyt kiinnostaisi RTX 5080 jos se on oikeasti keskimäärin 30% enemmän potkua 4080 verrattuna mikä vastaisi suurinpiirtein 4090.

Itse en ajatellut 5000 sarjan hinnoittelua ollenkaan. Vertasin vaan 4090 hintaan ja totesin että hinta kohillaan vaikka muistia onkin heikommin.
 
Viimeksi muokattu:
On kyllä jotenkin niin koomisen kokoisia noi rtx 5090/80 näytönohjaimet kun katsoin äskettäin hardware unboxed videon, minkähänlaisia monstereita sitten 60 sarjassa tulee olemaan.

1736331463701.png
 
En tiiä oliko täällä jo julkastu tää linuksen eka kosketus 5090:aan. Tässäpä tuosta kun se pelailee vähän CB2077:aa :D

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Yksi asia mihin kiinnitin huomiota kun katsoin MSI ja Asuksen kortteja et molemmat ovat siirtyneet phase-change pädeihin lämpötahnan sijaan. Asuksella kaikissa korteissa(näin sanoivat redditissä), MSI streamia katoin missä ne avasi kortteja niin niissäkin kaikissa oli, tosin eivät avanneet halvinta Ventus mallia niin en ole siitä varma. Gaming x ja ylemmissä ainakin oli.

Eli eipä varmaan enään tule ongelmia +100 asteen hotspoteista kun phase change pädit ei pumppaudu ulos samalailla kuin lämpötahna. Ainakin Asuksen korteissa oli tuota ongelmaa aika paljon 3- ja 4 sarjassa.
 
Tuossa asuksen astral versiossa on 4 tuuletinta, neljäs on takana, ja totta puhut että noi 4080/4090 kortit oli kanssa todella isoja.

1736331856893.png
Astral näyttäisi olevan mitoiltaan muutoin sama kuin tuo esim. 4090 Strixin jäähy, mutta paksuutta tullut hieman lisää, eli 3.5slot -> 3.8slot.
Pistin vertailuun 5070 Ti ja 5080, jotta saa kaikki eri Asuksen jäähymallit samaan: TUF-RTX5070TI-O16G-GAMING、PRIME-RTX5070TI-O16G Product different Compare|ASUS Global
Kaikki Asuksen mallit löytyy täältä: All series|Graphics Cards|ASUS Global
 
FE on kyllä nätein (taas) mutta mielenkiintoista nähdä miten tuo uusi design pystyy jäähdyttämään sen 575W kohtuullisilla desibeleillä.
 
En kirveelläkään maksa alimman keskiluokan kortista yli 500 euroa, varsinkaan kun vielä Herran Vuonna 2025 siitä löytyy vain 12 gigatavua muistia, voi morjens.
Aikamoista väittää xx70iä "alimmaksi keskiluokaksi", eiköhän se ole kuitenkin sitä ylintä keskiluokkaa
 
Positiivista tässä generaatiossa on ainakin se, että valmistajilla on heti kättelyssä 80- ja ilm. myös 90-luokassa suorilta SFF-yhteensopiva kortti, joka noudattaa tätä 2/2,5 korttipaikan politiikkaa ja noin 30 cm pituutta. Mm. Asukselta Prime ja Gigabyteltä Aero Nvidian FE-mallien lisäksi. Voipi hyvin olla että joutuu parsimaan ostohousut kasaan ja rakentamaan uuden itx-virityksen talven ratoksi.
 
Itse päivitellyt kun on saanut noin tuplat oikeita freimejä lisää GTX 1070, RTX 3080 ja nyt kiinnostaisi RTX 5080 jos se on oikeasti keskimäärin 30% enemmän potkua 4080 verrattuna mikä vastaisi suurinpiirtein 4090.

Itse olen odotellut että näyttistä saa about 350€ hinnalla ja sitä mukaan päivitellyt. 1070ti -> 3070 on menty nyt. Seuraavassa näyttiksessä pakko olla vähintään 12 GB VRAM:ia eli todennäköisesti tulee olemaan 4070 ti sitten kun tippuu tuohon 350€ paikkeille, joka voi olla mahdollista ihan tässä 6kk aikanakin.
Nuo feikki framet on kyllä tuonyt hyvin lisää elinikää vanhemmillekkin näyttiksille. Eli jos ei tarvitse ray tracingiä, niin tuollaiset 300-400€ näyttikset feikki framella riittää vallan mainiosti jopa 2k pelaamiseen.
 
Mutta tarkoitan että voisiko seuraavan framen rasterointi alkaa jo silloin, kun edellisen DLSS-prosessointi on vielä kesken? Jos tämä laskenta tapahtuu erillisillä AI-ytimillä, siihen ei periaatteessa pitäisi olla estettä.
Muistikaista voi tulla pahasti vastaan siinä mitkä asiat toimii rinnakkain. Tensoriytimien teoreettinen nopeus oli 20x0-40x0 korteissa aikalailla sen mitä muistikaista mahdollisti. 50x0 voi käyttäytyä eri tavalla, ei vielä tiedetä. Nvidiahan vihjasi kyllä siihen suuntaan, että ai-laskenta jollain tapaa rinnakkaistuisi muiden asioiden kanssa paremmin 50x0 sarjassa mutta ei ole kunnon materiaalia näkynyt siitä mitä tuo tarkoittaa.
 
Aikamoista väittää xx70iä "alimmaksi keskiluokaksi", eiköhän se ole kuitenkin sitä ylintä keskiluokkaa

Jos käytetään 4000-sarjaa (ennen Super refreshejä) esimerkkinä, niin:

>4060
>4060 Ti
>4070
>4070 Ti
>4080
>4090

Siihenhän se tupsahtaa entry level keskiluokkaan.
 
5090 tulee koneeseen 3070fe tilalle. Mikä malli ja valmistaja auki. Toivottavasti arvostelut tulis sen verran ennen myyntiintuloa, että kerkeäisi edes vähän miettiä asiaa datan pohjalta. Ulospäin FE versio näyttää parhaalta/kompakti, mutta onko se esim. huonommin kellottuva tai äänekkäämpi kuin järeämmännäköiset AIB-mallit?

Voi olla, että saa aika pitkään mennä 5090:lla, 4v,6v? ellei joku chiplet tms. vallankumous tapahdu ja saadaan nykyinen aika pieniä parannuksia tuova trendi rikottua. En pidättele hengitystä chiplettien suhteen. Monimutkaisemmat chipletit/paketoinnit voi mennä vielä vuosikausia konesalipiireihin ja kuluttajapiirit paitsiossa.

Yksi hyvä asia mitä ei isommin ole mainittu niin tensoriytimien fp4 tuki. Jos davinci resolve/topaz/... jne. softien neuroverkot voivat käyttää fp4:sta niin neuroverkkoefektien nopeus tuplaantuisi versus fp8/int8. Riittääkö fp4 ja tuleeko se käyttöön, en tiedä.

Toinen kiva juttu, että 3 video enkooderia 5090:ssa. Vaikuttanee suoraan videoiden renderöintiaikaa laskevasti tai jos striimailee tms. niin pelivaraa kuvalähteiden suhteen.
 
Viimeksi muokattu:
Muistikaista voi tulla pahasti vastaan siinä mitkä asiat toimii rinnakkain. Tensoriytimien teoreettinen nopeus oli 20x0-40x0 korteissa aikalailla sen mitä muistikaista mahdollisti. 50x0 voi käyttäytyä eri tavalla, ei vielä tiedetä. Nvidiahan vihjasi kyllä siihen suuntaan, että ai-laskenta jollain tapaa rinnakkaistuisi muiden asioiden kanssa paremmin 50x0 sarjassa mutta ei ole kunnon materiaalia näkynyt siitä mitä tuo tarkoittaa.

No joo, totta. Tosin paljon riippuu myös siitä, että kuinka iso osa DLSS:ssä käytetystä mallista mahtuu cacheen. Siinähän on pakko olla suht. pieni malli, että se ehditään laskea läpi korkeintaan millisekunneissa. Samoin onkohan tensoriytimissä omaa muistia kulloinkin ladattuna oleville painoille yms. Mutta muistikaista kuulostaa kyllä paljon uskottavammalta rajoitteelta kuin tehobudjetti. :hmm:
 
5090 tulee koneeseen 3070fe tilalle. Mikä malli ja valmistaja auki. Toivottavasti arvostelut tulis sen verran ennen myyntiintuloa, että kerkeäisi edes vähän miettiä asiaa datan pohjalta. Ulospäin FE versio näyttää parhaalta/kompakti, mutta onko se esim. huonommin kellottuva tai äänekkäämpi kuin järeämmännäköiset AIB-mallit?

Voi olla, että saa aika pitkään mennä 5090:lla, 4v,6v? ellei joku chiplet tms. vallankumous tapahdu ja saadaan nykyinen aika pieniä parannuksia tuova trendi rikottua. En pidättele hengitystä chiplettien suhteen. Monimutkaisemmat chipletit/paketoinnit voi mennä vielä vuosikausia konesalipiireihin ja kuluttajapiirit paitsiossa.

Yksi hyvä asia mitä ei isommin ole mainuttu niin tensoriytimien fp4 tuki. Jos davinci resolve/topaz/... jne. softien neuroverkot voivat käyttää fp4:sta niin neuroverkkoefektien nopeus tuplaantuisi versus fp8/int8. Riittääkö fp4 ja tuleeko se käyttöön, en tiedä.

Toinen kiva juttu, että 3 video enkooderia 5090:ssa. Vaikuttanee suoraan videoiden renderöintiaikaa laskevasti tai jos striimailee tms. niin pelivaraa kuvalähteiden suhteen.
Yleensä nää on niin hyvin tehdasylikellotettuja (boost), että en usko että sitä kannattaa miettiä muuten kun jos haluaa harrastaa. 4000-sarjassa muistelisin että nvidia otti parhaita piirejä itselleen FE malleihin, joka tarkoittaa että alivoltitettu FE voi olla parempi kuin 500e kalliimpi huippu strix käytännössä.

No, en kyllä jaksanut kaivella oliko joku näistä jotain suurta vertailua tehnyt. Itse ottaisin FE:n, mutta luulen että niiden saatavuus tulee olemaan huonoin, koska se on varmaan halvin malli myös.
 
Tällä hetkellä kärsitään aika pahasti surkeasta EUR/USD kurssista.

RTX 5070 olisi 580€ eli satasen halvempi samalla kurssilla jolla RTX 3080 muuntui 699 USD -> 739€...
 

Statistiikka

Viestiketjuista
295 930
Viestejä
5 056 866
Jäsenet
81 006
Uusin jäsen
Evaan

Hinta.fi

Back
Ylös Bottom