NVIDIA-spekulaatioketju (Blackwell ja tulevat sukupolvet)

Lopullisia testejä ja Suomi-hintoja nyt kannattaa varmasti itse kunkin vielä rauhassa odotella. Onhan se totta etteivät nämä edullisia ole, mutta myöskään ne poskettomimmat ennustukset eivät toteutuneet ("yllätys").

Kaltaisilleni MSFS:n ajelijoille kyllä vakava harkinnan paikka, vaikka kirpaisee. Toki tosiasia on se, että MSFS on vahvasti cpu limited, eikä lentosimuissa muutenkaan tärkeintä ole korkea fps vaan sulavuus.

MSFS:n tapauksessa jopa tuo 12 gb:n '4080' saattaa siis olla harkinnan arvoinen. Mutta onhan reilu tonni Suomi-hintaisesta periaatteessa 0x70 sarjan kortista aika karu hinta.
 
Ei tästä julkasusta kyllä saa tippaakaan sellasta "shut up and take my money" efektiä. Aika laimeeta settiä ja noi hinnat lisättynä kiuas/lämpöpatterivitseillä.... Itse ostan sen 3070 joka tulee 200% olemaan mitä tarviin, näille hienouksille ei mulla ole mitään käyttöä ja käyttämätön ominaisuus on taas ominaisuus josta maksat turhaan.
 
Ei tästä julkasusta kyllä saa tippaakaan sellasta "shut up and take my money" efektiä. Aika laimeeta settiä ja noi hinnat lisättynä kiuas/lämpöpatterivitseillä.... Itse ostan sen 3070 joka tulee 200% olemaan mitä tarviin, näille hienouksille ei mulla ole mitään käyttöä ja käyttämätön ominaisuus on taas ominaisuus josta maksat turhaan.

Toivottavasti 4070 ei vaan ole sit tyyliin 800e. :/
 
Asuksen live striimissä äsken oli kunnolla esillä 4090 Strix ja TUF.

Molemmat 36cm mittaisia.

4090 Strixissä uusi kammio tekniikka jossa putket ovat pyöreitä eikä litistettyjä kuten normaalisti.

Vaikuttaa 3-5C lämpöjä alentavasti vrt. perinteiset litistetyt lämmönsiirto putket.

4090 TUF tai 4080 Strix ja alemmissa korteissa vanhemman tyyppiset litistetyt putket.
 
Toivottavasti revikoissa edes näkyisi parempaa performanssia nimittäin ei vaikuta hyvältä tämä.
 
Asuksen live striimissä äsken oli kunnolla esillä 4090 Strix ja TUF.

Molemmat 36cm mittaisia.

4090 Strixissä uusi kammio tekniikka jossa putket ovat pyöreitä eikä litistettyjä kuten normaalisti.

Vaikuttaa 3-5C lämpöjä alentavasti vrt. perinteiset litistetyt lämmönsiirto putket.

4090 TUF tai 4080 Strix ja alemmissa korteissa vanhemman tyyppiset litistetyt putket.
Kaikista korteista joista sai tietoja (enemmän tai vähemmän) tuffi oli taas kyllä kiinnostavin ilmavehje. Ylivoimaisesti jopa.

Mutta vaikka rahaa upotan välillä järjettömyyksiin enemmän ja vähemmän, niin tuon hintaiset näytönohjainvekottimet ei herätä minkään valtakunnan ostohaluja.

Yli 2x3080 tuffin hinta. Not today, not tomorrow…
 
Ajurit melko varmasti parantaa tilannetta niinkuin nytkin nähty, iso kysymys vaan on että onko porukalla malttia odottaa niitä? Nvidian tarvii nyt vetästä VALAS hatustaan että tää saadaan kantamaan ja ei, en tarkoita sellaisia "valaita" nyt, vaikka on niitä idiootteja jotka ostaa vaikka hevosenlantaa jos se päällystetään kullalla.
 
Tuo välifreimien generointi on kyllä sen verran fuskua että oksat pois. Televisioissahan on jo pitkään ollut näitä AI -ominaisuuksia, joilla 60Hz kuva muutetaan 120Hz kuvaksi (AI generoi väliframet).

Mikseivät samantien piirrä ensin parillisia juovia (interlace)-> +1 fps ja sitten parittomat juovat -> +1 fps.

Jos joka toisen framen jättää "rendaamatta" ja interpoloi sen AI:lla niin säästyy CPU syklejä. Ei tarvitse näille väliframeille laskea kuin kuva. Esim. fysiikat, animaatiot jne. voi jättää kokonaan pois. Siksi kai Flight Simulator hyötyy tuosta niin paljon, kun se on helposti CPU rajoitteinen. Iha hyvä ideahan tuo on jos haluaa 120fps:llä pelata, sen alle tuolla ei varmaan hirveästi mitään tee. Mielenkiintoista nähdä miten toimii käytännössä. Digital Foundrylta tuli jo teaseri, että heillä on 4090 kortti käsissään ja testejä on luvassa piakkoin (NVidian sallimissa rajoissa toki).
 
Tehonkulutuksesta ei ollut pahemmin puhetta, joten tuskin siitä löytyy paljon kehumisen aihetta. Omaksi kortiksi valikoituisi 4080 16 gt jos hinta olisi max 1200 e.
 
Input lagiahan se ei vähennä, ja pienellä FPS:llä fysiikat muuttuvat helposti epävakaaksi.
 
Tehonkulutuksesta ei ollut pahemmin puhetta, joten tuskin siitä löytyy paljon kehumisen aihetta. Omaksi kortiksi valikoituisi 4080 16 gt jos hinta olisi max 1200 e.
Löytyy ne Nvidian sivuilta, 4090 oli muistaakseni 450w niiden versiossa, ja 3080 3xx jotain
 
Olen valmis maksamaan 800€ tehokkaasta 1440p-näytönohjaimesta. RTX 4070:aa tai 4060 Ti:tä odotellessa. Kahdessa eri 4080:ssa, joista varsinkin toinen on ryöstöhintainen, ei ole oikein muuta kuin rahastuksen makua :think:

Polkuhintainen RTX 3080 Ti kelpaisi myös, mutta harmi, jos DLSS 3.0 ei tule enää sille ja 2.0:n kehitys pysähtyy. DLSS on etenkin säteenseurannan kanssa oikein näppärä.
 
4090 hinta on jotenkin perusteltavissa, 4080 ei. Toisaalta voi sanoa että nämä on hinnoiteltu niin että 3080 ja 3090 kortit saadaan pois hyllystä ilman hirveää persnettoa ja sitten voidaan leikata 4080 hintoja joskus puolen vuoden päästä.
 
Nojoo, aikalailla voi unohtaa rtx 4080 (kummankin mallin), en suakeli rupee maksaa mistään näyttiksestä ~1200-1500€. Ostelen sitten joululahjaks itselle 12 gigasen 3080 kortin "halvalla" veikkaan et joulukuussa voisi saadakkin 3080 tuohon 750-800€ hintaan kun marraskuussa julkaistaan 40 series.
 
Jos joka toisen framen jättää "rendaamatta" ja interpoloi sen AI:lla niin säästyy CPU syklejä. Ei tarvitse näille väliframeille laskea kuin kuva. Esim. fysiikat, animaatiot jne. voi jättää kokonaan pois. Siksi kai Flight Simulator hyötyy tuosta niin paljon, kun se on helposti CPU rajoitteinen. Iha hyvä ideahan tuo on jos haluaa 120fps:llä pelata, sen alle tuolla ei varmaan hirveästi mitään tee. Mielenkiintoista nähdä miten toimii käytännössä. Digital Foundrylta tuli jo teaseri, että heillä on 4090 kortti käsissään ja testejä on luvassa piakkoin (NVidian sallimissa rajoissa toki).
Tuossa on vain - luultavasti - se perustavanlaatuinen ongelma, että input lagia nuo interpoloidut framet eivät vähennä. Menettelee ehkä hidastempoisessa lentosimussa, mutta monessa muussa ei.
 
Minäkään en aijo 2000 laittamaan johonkin näyttikseen.Tosiaan ostaa sit 3080 näyttiksen halvalla käytettynä tai sit jää vielä odottamaan amd vastinetta sit tai 4070 jos tulee.
 
DLSS3 - taikatemppu jolla voitetaan jokainen fps-vertailu ja saadaan hienonnäköistä demoa pyörimään kauppoihin.

Sitten kun peliä yrittää pelata niin paljastuukin että se oli vain unta.
 
Ihan hyvältä päivitykseltä vaikuttaa tehojen osalta mutta hinnat kyllä sellaiset varsinkin euroalueella, että eipä tarvitse 3080:sta päivitellä ennen 5xxx sarjaa. Vähän kyseenalainen myös tuo oletetun 4070 mallin nimeäminen 4080 12GB:ksi. Kun pistetään 2 hinnaltaan täysin halo tuotetta (4080 16GB ja 4090) järjettömiin hintoihin niin päälle 1000€ kuulostaa jo kohtuulliselta, mutta silloin helposti unohtuu että tuo 4080 12Gb on todellisuudessa siis kaksinkertainen hinnalttaa verrattuna 3070 julkaisuun. Noh joo onhan tässä käytykkin syitä läpi miksi hinta näin ja noin, mutta eipä ainakaan ole itselle vaikea miettiä laitanko ennakkotilaukseen vai en.
 
Nvidiahan sai tässä just sen hakemansa reaktion ihmisissä, eli osa on valmis maksamaan mitä vaan saadakseen huippu suorituskykyä, mutta iso osa ihmisistä ostaa vanhat 30xx kortit pois varastoista lojumasta. Bisnesmielessä tuossa ei ois ollu järkeä myydä noita halvemmalla. Mitä alemmat hinnat näille, niin sitä alemmat hinnat on laitettava vanhalle sarjalle. On siellä näitä ammattilaiset miettinyt kahvikupin ääressä illan jos toisenkin. Tosin me taidetaan kärsiä nyt tuon päälle myös monta sataa euroa kalliimmasta hinnasta euron perkeleen vuoksi. Niikun myös iPhoneissa kävi. Valitettavasti myöskään AMD:stä ei ole apua vielä tähän tilanteeseen kun julkistus vasta marraskuussa. Harmi.

Tosin tuo 4070 myynti 4080 nimellä on kyllä silkkaa kusetusta koko homma. Olin itse valmis ostamaan nyt ensimmäistä kertaa uutta high endiä vieläkin rullaavan 1060 tilalle johonkin 1000 euron hintaan. Joka sekin on helvetisti liikaa jostain näytönohjaimesta. Tuo 1500e sen sijaan on semmonen mitä en ikinä harkitsisi.

Eli kuulun ryhmään: kärkyn 3080/3090 poistomyyntejä polkuhinnoilla ja odotan samalla AMD:stä pelastajaa.
 
4090 hinta on jotenkin perusteltavissa, 4080 ei. Toisaalta voi sanoa että nämä on hinnoiteltu niin että 3080 ja 3090 kortit saadaan pois hyllystä ilman hirveää persnettoa ja sitten voidaan leikata 4080 hintoja joskus puolen vuoden päästä.

Tämä on täsmälleen oma tuntemus. Odotin, että 4080:ejä ei julkaista edes. Päättivät julkaista, mutta sellaisilla hinnoilla, että 30-sarjan huipputuotteita ei kannibalisoida kauheasti. 4080 12GB on ihan oikeasti loukkaava julkaisu, 192-bit kortti 1200 euron hintaan. Sanoin kyllä jo alkukesästä näin:

4080 ei ole mitenkään alle tonnin ainakaan Suomessa. Ei mitenkään.

Mutta että nyt jopa 4070 meni oikein heittämällä yli tonnin pelkällä "tarratuunauksella" 7->8, niin kyllähän tässä ajettiin miinaan oikein komeasti niiden 30-sarjan varastojen puristuksessa.

Toivottavasti AMD saa omiaan ulos pian. Haittapuoli Nvidian julkkarista on se, että hintakilpailu ei alkanut vielä. AMD varmasti tekee undercutin hinnalla, mutta marginaalia on tällä pelin avauksella niin paljon, että sekään ei vielä todennäköisesti tee 4080/7800 -luokan näyttiksistä mitenkään hirveän houkuttelevia.
 
Nvidiahan sai tässä just sen hakemansa reaktion ihmisissä, eli osa on valmis maksamaan mitä vaan saadakseen huippu suorituskykyä, mutta iso osa ihmisistä ostaa vanhat 30xx kortit pois varastoista lojumasta. Bisnesmielessä tuossa ei ois ollu järkeä myydä noita halvemmalla. Mitä alemmat hinnat näille, niin sitä alemmat hinnat on laitettava vanhalle sarjalle. On siellä näitä ammattilaiset miettinyt kahvikupin ääressä illan jos toisenkin. Tosin me taidetaan kärsiä nyt tuon päälle myös monta sataa euroa kalliimmasta hinnasta euron perkeleen vuoksi. Niikun myös iPhoneissa kävi. Valitettavasti myöskään AMD:stä ei ole apua vielä tähän tilanteeseen kun julkistus vasta marraskuussa. Harmi.

Tosin tuo 4070 myynti 4080 nimellä on kyllä silkkaa kusetusta koko homma. Olin itse valmis ostamaan nyt ensimmäistä kertaa uutta high endiä vieläkin rullaavan 1060 tilalle johonkin 1000 euron hintaan. Joka sekin on helvetisti liikaa jostain näytönohjaimesta. Tuo 1500e sen sijaan on semmonen mitä en ikinä harkitsisi.

Eli kuulun ryhmään: kärkyn 3080/3090 poistomyyntejä polkuhinnoilla ja odotan samalla AMD:stä pelastajaa.
Yksi merkittävä tekijä tulee (jos tulee) olemaan ne pelit jotka oikeasti vaativat 40-sarjan potkua. Tälläkin hetkellä todella monessa paikassa ihmiset valittaa kun ne oikeasti loistavat AAA-luokan pelit loistavat poissaoloaan. Ne tähänkin asti ilmestyneet pyörivät 3080-3090 sarjalaisilla jo sen verran hyvin, että on hankalaa kuvitella jonkun olevan valmis pistämään lähes 1000€ lisää näyttikseen jos pelien tarjonta on tätä luokkaa. Cyberpunk on yhä kysymysmerkki, ehditäänkö koko peliä pelastamaan ennen kuin se vajoaa alle 1000 yhtäaikaisen pelaajan suosiolle, jolloin koko pelin olemassaolo on aika yhdentekevää uusimpien näyttisten osalta. Tuleva Assasin's Creed: Mirage voisi olla yksi sellainen FPS-tappaja, mutta mene ja tiedä kuinka iso osa sen pelaajakunnasta ostelee 1000-2000€:n näytönohjaimia.

Aika näyttää.


ps. Eipä mennyt oma 4090-hintaveikkaus niin pahasti pieleen:

2000-2500€ olisi oma veikkaus.
 
Oliko se Apple vai Samsung joka ekana toi markkinoille sen tonnin maksavan puhelimen, kauhisteltiinhan ensin sitäkin että "ei helvetti, TONNI PUHELIMESTA?!!" Ja nykyään on sitten ihan normaalia että huippuluuri maksaa 1500-2000 rahaa...

Tässä aivan sama ilmiö kyseessä. Ihmiset pikkuhiljaa tottuvat siihen että huipputuotteet maksavat helvetisti ja keskihintakin nousee mutta kukaan ei kyseenalaista tätä, miksi ei?
 
Vahvasti sama fiilis. 3080:n ostamisen päätin jo riimua seuratessa mutta kyllä nämä jää hyllyyn. Enemmän jopa odotan että mitä punainen leiri tuo pöytään.
Tuntuu että tätä omaa 3080 korttia voi sitten halailla ainakin seuraavat kolme vuotta ennen kun tarvitsee taas päivittää. Kertakaikkiaan surkea esitys Nvidialta.
Rukoillaan että AMD pääsee taas peliin mukaan ja korjaa niiden softa puolen joka on ollut kyllä aika toivoton aika pitkään.
 
Tämänkin foorumin myyntipalsta on täynnä mainauksesta poistuneita kohtuuhintaisia 30x0 sarjan kortteja. Toivon, että nuo menevät pelaajille kaupaksi (niin kuin näyttävät täällä menevän) niin Suomessa kuin maailmallakin, jotta Nvidialle jää käteen sekä varastollinen vanhoja kortteja että hyllyt täyteen uusia kortteja. Siinäpähän sitten myyvät halotuotteitaan.
 
DLSS3 games

  • A Plague Tale: Requiem
  • Atomic Heart
  • Black Myth: Wukong
  • Bright Memory: Infinite
  • Chernobylite
  • Conqueror’s Blade
  • Cyberpunk 2077
  • Dakar Rally
  • Deliver Us Mars
  • Destroy All Humans! 2 – Reprobed
  • Dying Light 2 Stay Human
  • F1Ⓡ 22
  • F.I.S.T.: Forged In Shadow Torch
  • Frostbite Engine
  • HITMAN 3
  • Hogwarts Legacy
  • ICARUS
  • Jurassic World Evolution 2
  • Justice
  • Loopmancer
  • Marauders
  • Microsoft Flight Simulator
  • Midnight Ghost Hunt
  • Mount & Blade II: Bannerlord
  • Naraka: Bladepoint
  • NVIDIA Omniverse
  • NVIDIA Racer RTX
  • PERISH
  • Portal with RTX
  • Ripout
  • S.T.A.L.K.E.R. 2: Heart of Chornobyl
  • Scathe
  • Sword and Fairy 7
  • SYNCED
  • The Lord of the Rings: Gollum
  • The Witcher 3: Wild Hunt
  • THRONE AND LIBERTY
  • Tower of Fantasy
  • Unity
  • Unreal Engine 4 & 5
  • Warhammer 40,000: Darktide
 
4090:ssa voi olla se ongelma, että prossut rajoittaa tällä hetkellä liikaa. Raakaa tehoahan tuossa pitäisi olla ~kaksinkertaisesti 3090:een verrattuna. Toisaalta muistikaistaa ei ole kovin paljon enemmän, no tuon näkee sitten syksyn mittaan.
 
Eikös Intel ja AMD ole molemmat tuomassa uusia prossuja nyt markkinoille jolloin näille uusille pikselinpiirtäjille ois kaveri joka jaksaa niiden vauhdissa mukana?
 
Postaan saman tähän ketjuun kuin mitä laitoin uutisketjuun. Olisi hyvä, jos keskustelu päätyisi yhteen ketjuun kahden tilalta. Ehkä joku uusi 4090,4080 ketju olisi paikallaan?

Hauska miten täysin samasta speksista ja esityksestä voi vetää niin monenlaista erilaista johtopäätöstä. Digital foundryn kommentteja alla. Tsekkasin huumorilla niin hardware unboxed:lla ei ole mitään 4090 matskua vielä tuubissa. pcworld, io-tech jne. kuitenkin kerkesivät jotain tekemään. Ehkä se amd bias siellä näkyy HUB:in päässä. Ei HUB ole jaksanut twiittiäkään nvidiasta laittaa. Oletin löytäväni naljailua dlss3:sta, mutta ehkä rytisee myöhemmin kunhan amd kerkeää päivitellä hub:lle talking pointit.

We've been hands-on with the RTX 4090 for the last few days and we're hard at work on content focusing on the firm's latest AI-based frame generation technology - DLSS 3.

Perffi lienee kunnossa jo ennen kuin dlss laitetaan päälle,...
First impressions on the RTX 4090 itself though? It's easily one of the biggest gen-on-gen increases in performance we've seen, even based on limited testing. 4K gaming for higher refresh rate monitors and TVs is not a problem on most modern titles - and by extension, 8K at 60fps is now viable if you're one of the crazy few (like me) that actually has an 8K TV. Combine that increase in performance with the new DLSS 3 - with its AI-based frame generation - and suddenly the most intense workloads in PC gaming play out with unerring fluidity.


Kai tuo 4090 antaa suurinpiirtein tuplatehon versus 3090ti rtx on peleissä samalla virrankulutuksella(450W). DLSS3 sit päälle niissä harvoissa peleissä missä se tulee toimimaan ja saa tuosta vielä tuplattua fps:n. VR:aan kelpais. Vois rendailla vaikka 72Hz natiivina ja sit dlss3:lla 144Hz:iin. Vois saada reson kohdalleen niin tulis terävää kuvaa vr:aan,... VR:ssa enivei on se pään asennon muutoksen kompensointi jo loppuvaiheessa niin se pelaa kivasti dlss3:en kanssa yhteen.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
19.05.:
Näyttää kovin heppoiselta.. Toisista huhuista olen katsonut, että 400-500W kulutustakin on veikkailtu ja ei tuommoinen rimpula riitä. Tai sitten siellä on uusi Vapor Champer ja siitä puskee läpi teollisuustason turbiinituuletin (siis äänen ja RPM:n puolesta).

--

Tulin vaan tänne spekuloimaan, kun tuleminen on selvästi lähellä.

Itse ennustan, että sieltä tulee 2-3 mallia, sinne tonnin tai kalliimpien hintaluokkaan. Ne vanhentavat samalla kaikki 3080 Ti:stä ylöspäin, ainakin MSRP:llään. 3080 alkaa myydä MSRP:llä ja jos se on luokkaa $699/750€, niin se on vieläkin ihan fiksu ostos. (Tai sitten saatavuus on täysin olematon ohjehinnalla, mutta miksi sitten julkaista??)

Lisäksi Nvidia on huomannut, että ihmiset ostaa kaikkea, niin sieltä tulee se 400-500W TDP kortti ja se on kiuas. Mutta niinkuin i9-12900KS:n kanssa -> jätetään tämä vaan kuluttajan ongelmaksi ja tehdään kortti, joka on hyvin suunnitellussa ympäristössä absoluuttisen paras. Onko se iso piiri vai jopa kahden GPU:n yhdistelmä - en osaa veikata, mutta sen kellot on ainakin tapissa ja mitään kevyttä peruskäyttöä ei haeta , vaan parhautta testeissä. Kaikki mallit on OC Premium -malleja.

Sitten ne muutkin mallit tulevat kunnon jäähyillä ja tällä perustellaan sitä, että hintaluokka on $999+. Voi olla, että Asus Dualeja ja MSI Ventuksia ei nähdä tuossa hintaluokassa enää tulevaisuudessa. Ne on siihen midrangeen, joka julkaistaan myöhemmin. Ja se on aikaisintaan 11/2022 kaupoissa.

Ihan puhtaasti omia ennustuksia, jotka nyt on kirjallisena tässä. Insight on siinä, että en usko, että jos nyt ostaa RTX 3000-sarjaa ohjehintaan, niin tekee mitenkään huonot kaupat ja niiden arvo laskee. Todennäköisesti niiden arvo pysyy täysin ennallaan vuodenvaihteeseen saakka. Lisäksi ennustan, että Nvidia kyllä osaa rahastaa ja kallein Lovelace-malli on kallein kuluttaja-Geforce ikinä.

Voin tietenkin olla väärässä, mutta nyt olen viime vuosina osunut yhä paremmin maaliin ennustuksillani. Ja minua kiinnostaa keskustelu hintatasosta ennen ja jälkeen julkaisun.. Itsehän veikkaan, että se on alle tonnin hintaluokassa sama kuin nykyään..

Noin 4kk sitten osuin ennustuksillani kovin oikeaan :)
Tulin tänne vain huomauttamaan asiasta :)

--

Hinnassa olin kyllä väärässä, ellei katsota nykyisiä hintoja.. ja olihan se halvin 4080-vedätys $899.
 
No siis rasterointitehoa nahkatakkimies lupasi 25% siinä alkupuolella videota. Ei kyllä muistikuvaa oliko sillä jotkut kortitkin siinä esimerkkinä vai puhuiko yleisesti (vai puhuiko ylikellottamisesta).

Missään graafissa ko. lukemaa ei toki ollut ja pidättäydyttiin 2x tehoissa dlss ja rtx päälle laittamalla.
 
Niinpä olikin. No ei noissa missään current gen peleissä ole kyllä dlss3:a käytössä. Toi 50% on kyllä aika varmasti lähellä worst casea.
Ei ole kyllä nvidian omissa kalvoissa mikään lähelläkään worst casea.

Tämä julkaisu muistuttaa kovasti 2000-sarjan julkaisua, jossa 2080ti oli kova ja kallis ja muut jätti toivomisen varaa hinta/teho luokasta.
 
Viimeksi muokattu:
DLSS3 sit päälle niissä harvoissa peleissä missä se tulee toimimaan ja saa tuosta vielä tuplattua fps:n. VR:aan kelpais. Vois rendailla vaikka 72Hz natiivina ja sit dlss3:lla 144Hz:iin. Vois saada reson kohdalleen niin tulis terävää kuvaa vr:aan,... VR:ssa enivei on se pään asennon muutoksen kompensointi jo loppuvaiheessa niin se pelaa kivasti dlss3:en kanssa yhteen.

Kyllähän kelpais jos saisi vihdoin Reverb G2-kypärästä täyden resoluution irti DLSS3:n avulla, huh. Gamers Nexus (jonka hiusten halkomista en useinkaan jaksa kuunnella) tuossa uusimmalla videollaan jutteli, että DLSS3 olisi nimenomaan vahva CPU-rajoitetuissa peleissä, kuten minkä puolesta tuo MSFS:n suorituskyvyn väitetty kasvu myös todistaisi. Kyse ei siis olisi siitä miten itse näin maallikkona helposti saattaa ajatella, että Adan hyödyt valuisi reisille jos CPU rajoittaa. Totuus lienee päinvastainen. Tekoälyn myötä suuntaus taitaa olla vahvasti sen suuntainen, että pelaamisessa GPU on tulevaisuudessa entistä tärkeämpi suhteessa prossuun.
 
Tsekkasin humorilla niin hardware unboxed:lla ei ole mitään 4090 matskua vielä tuubissa. pcworld, io-tech jne. kuitenkin kerkesivät jotain tekemään. Ehkä se amd bias siellä näkyy HUB:in päässä. Ei HUB ole jaksanut twiittiäkään nvidiasta laittaa. Oletin löytäväni naljailua dlss3:sta, mutta ehkä rytisee myöhemmin kunhan amd kerkeää päivitellä hub:lle talking pointit.
Tuo on kyllä todella kaukana totuudesta... Mistä ihmeestä päättelit että HUB on jollain tavalla AMD bias? Yleensä jokaisessa vertailussa suosittelevat Nvidian korttia vaikka se on huomattavasti kalliimpi kuin AMD vastaava...
 
Ihan hyvältä päivitykseltä vaikuttaa tehojen osalta mutta hinnat kyllä sellaiset varsinkin euroalueella, että eipä tarvitse 3080:sta päivitellä ennen 5xxx sarjaa. Vähän kyseenalainen myös tuo oletetun 4070 mallin nimeäminen 4080 12GB:ksi. Kun pistetään 2 hinnaltaan täysin halo tuotetta (4080 16GB ja 4090) järjettömiin hintoihin niin päälle 1000€ kuulostaa jo kohtuulliselta, mutta silloin helposti unohtuu että tuo 4080 12Gb on todellisuudessa siis kaksinkertainen hinnalttaa verrattuna 3070 julkaisuun. Noh joo onhan tässä käytykkin syitä läpi miksi hinta näin ja noin, mutta eipä ainakaan ole itselle vaikea miettiä laitanko ennakkotilaukseen vai en.
Tai sitten 4070 tulee jokin kattaus erilaisia, pikkuvikaisia piirejä joista leikattu keskimäärin samankaltaista suorituskykyä. Ehkä ne odottaa vielä että epäkelvot 4080,90 piirivarasto täyttyy?
 
Postaan saman tähän ketjuun kuin mitä laitoin uutisketjuun. Olisi hyvä, jos keskustelu päätyisi yhteen ketjuun kahden tilalta. Ehkä joku uusi 4090,4080 ketju olisi paikallaan?

Hauska miten täysin samasta speksista ja esityksestä voi vetää niin monenlaista erilaista johtopäätöstä. Digital foundryn kommentteja alla. Tsekkasin huumorilla niin hardware unboxed:lla ei ole mitään 4090 matskua vielä tuubissa. pcworld, io-tech jne. kuitenkin kerkesivät jotain tekemään. Ehkä se amd bias siellä näkyy HUB:in päässä. Ei HUB ole jaksanut twiittiäkään nvidiasta laittaa. Oletin löytäväni naljailua dlss3:sta, mutta ehkä rytisee myöhemmin kunhan amd kerkeää päivitellä hub:lle talking pointit.



Perffi lienee kunnossa jo ennen kuin dlss laitetaan päälle,...



Kai tuo 4090 antaa suurinpiirtein tuplatehon versus 3090ti rtx on peleissä samalla virrankulutuksella(450W). DLSS3 sit päälle niissä harvoissa peleissä missä se tulee toimimaan ja saa tuosta vielä tuplattua fps:n. VR:aan kelpais. Vois rendailla vaikka 72Hz natiivina ja sit dlss3:lla 144Hz:iin. Vois saada reson kohdalleen niin tulis terävää kuvaa vr:aan,... VR:ssa enivei on se pään asennon muutoksen kompensointi jo loppuvaiheessa niin se pelaa kivasti dlss3:en kanssa yhteen.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Siis jos oikein ymmärsin he keskittyvät enemmänkin DLSS 3.0:n kokeilemiseen ja esille tuomiseen? Eli jos nyt sitä HUB:ia haukutaan, niin pitäisi tällaiset Nvidian valitsemat testaajat rajallisine testeineen ottaa myös suuren suola-annoksen kera tai jättää suosiolla omaan arvoonsa.

"So, the key questions facing the new techologies are straightforward: what is the quality level of the interpolated frames and to what extent does input lag increase or decrease based on frame buffering in combination with whatever mitigations Reflex provides. It's important to understand the limitations as well as the strengths: for example, esports players bank on higher frame-rates to reduce lag significantly - applications here will likely be limited. However, at the same time, seeing the most taxing of triple-A content running smoothly on my LG OLED CX at its max 120Hz refresh rate has been quite an experience.

We'll be aiming to cover these topics and more in broad strokes our content coming later this week but for now at least, the trailer above should give you some idea of the quality level of DLSS 3 and some of the tests we've been running.
"


Suomeksi, yksikään testi ei ole luotettava mikäli laitevalmistajalla on siinä nappinsa pelissä, kuten näissä "ennakkoarvosteluissa." Vihreät lasit olisi hyvä ottaa päästä pois vaikka uusi tuotejulkaisu aina kiiman saakin päälle.
 
Hauska miten täysin samasta speksista ja esityksestä voi vetää niin monenlaista erilaista johtopäätöstä.
Mitä nää monenlaiset erilaiset johtopäätökset ovat olleet? Et maininnut muita kuin tuon Digital Foundry lyhyet tiiseritekstit, joissa nyt ei juuri kommentoida kuin suorituskykyä.
 
Tuo on kyllä todella kaukana totuudesta... Mistä ihmeestä päättelit että HUB on jollain tavalla AMD bias? Yleensä jokaisessa vertailussa suosittelevat Nvidian korttia vaikka se on huomattavasti kalliimpi kuin AMD vastaava...

Totuus lienee katsojan silmässä. Mun silmiin HUB ei todellakaan vaikuta objektiiviselta taholta. Tai ehkä se on heidän tarkoituskin, kun arvostelut tehdään hyvin kapeasta näkökulmasta eli max reso, max textuurit, max fps ja säteenseuranta on saatanasta, kun tehot ei riitä. Onko tämä sitten amd bias vai niiden oikea mielipide asiasta, en osaa sanoa. Katsotaan nyt mitä 40x0 ja rdna3 arvosteluissa sanovat, että tuleeko objektiivisempaa settiä vai mennäänkö arvosteluissa amd:n vahvuudet on paras juttu koskaan kulma edellä.
 

Statistiikka

Viestiketjuista
296 300
Viestejä
5 068 634
Jäsenet
81 057
Uusin jäsen
DreamyX

Hinta.fi

Back
Ylös Bottom