NVIDIA-spekulaatioketju (Blackwell ja tulevat sukupolvet)

Hienosti hermanni. Meinaatkos että mamma ja pappa jotka ostaa villepetterille konneen ku on toivottu että siinä o vaikka rtx4080 ni tietää eron 16gb ja 12gb välillä? Toi on ihan suoraan kuluttajan harhauttamista tuo nimeäminen ja itsekkin tiedät sen.

Jos ostaa sian säkissä niin saa sian säkissä, tai ehkä hermannin. Ton hintaluokan vehkeissä kannattaa kyllä ne arvostelut tsekata ennen ostamista. Tai sit on niin paljon ylimääräistä rahaa ettei vaan kiinnosta ja mulla olis niitä taikapapuja tonnin kipale myynnissä.
 
Jos ostaa sian säkissä niin saa sian säkissä, tai ehkä hermannin. Ton hintaluokan vehkeissä kannattaa kyllä ne arvostelut tsekata ennen ostamista. Tai sit on niin paljon ylimääräistä rahaa ettei vaan kiinnosta ja mulla olis niitä taikapapuja tonnin kipale myynnissä.
Ei voi tsekkaa arvosteluja, pakko ostaa ja sitten katsoa jos meinasi kortin julkkarissa saada.
 
Kai ton hintaisessa tuotteessa kuluttaja tsekkaa suorituskyvyn ennen ostamista. Ei voi kusta silmään, jos vilkaisee arvostelut. Tosin, jos ostaa vain mallinimen takia noin kalliin tuotteen ilman mitään perehtymistä niin ehkä joutaakin eroamaan rahoistansa? Mulla olis taikapapuja myytävänä, vain tonnin kipale. Aika sama onko se nimi 4080,4070 vai blingbling2001, jos tsekkaa arvostelut.
Hyvä ohje yleisesti ottaen jonka takia jäin ilman korttia 3000 sarjan kanssa. En usko saman tapahtuvan nyt, eiköhän noita kortteja riitä. Osa taas haluaa varmistaa saavansa kortin ja maksaa. Onhan noissa kuitenkin palautusoikeus.
 
Jos ostaa sian säkissä niin saa sian säkissä, tai ehkä hermannin. Ton hintaluokan vehkeissä kannattaa kyllä ne arvostelut tsekata ennen ostamista. Tai sit on niin paljon ylimääräistä rahaa ettei vaan kiinnosta ja mulla olis niitä taikapapuja tonnin kipale myynnissä.
Vaikka kuinka olenkin samaa mieltä, että henkilön tulisi perehtyä siihen mitä ostaa, niin tuo ei silti poista sitä faktaa että Nvidia yrittää harhauttaa ostajaa.

Ei tuo ole joko/tai tilanne, vaan sekä kortin paremmasta tietämättä ostanut kuluttaja että tätä tarkoituksella harhauttanut myyjä ovat syypäitä.
 
Vaikka kuinka olenkin samaa mieltä, että henkilön tulisi perehtyä siihen mitä ostaa, niin tuo ei silti poista sitä faktaa että Nvidia yrittää harhauttaa ostajaa.

Ei tuo ole joko/tai tilanne, vaan sekä kortin paremmasta tietämättä ostanut kuluttaja että tätä tarkoituksella harhauttanut myyjä ovat syypäitä.
Tästä kyllä samaa mieltä. Käytännössä nvidia lähti tuolle tielle jo 3060 12gb:lla. Tuon takia jotkut valitsivat 3060 3060ti:n sijaan, kun muistia sai enemmän ja vielä halvalla! Mutta juu, entistä enemmän pitäisi tietää mitä ostaa, ettei tule "huojatuksi". Onneksi tuo muistimäärä on selkeästi esillä, niin kaikkien asiasta tietävien on mahdollista erottaa mallit toisistaan
 
Tästä kyllä samaa mieltä. Käytännössä nvidia lähti tuolle tielle jo 3060 12gb:lla. Tuon takia jotkut valitsivat 3060 3060ti:n sijaan, kun muistia sai enemmän ja vielä halvalla! Mutta juu, entistä enemmän pitäisi tietää mitä ostaa, ettei tule "huojatuksi". Onneksi tuo muistimäärä on selkeästi esillä, niin kaikkien asiasta tietävien on mahdollista erottaa mallit toisistaan

Eihän tuo nyt ole millään tasolla verrattavissa tähän 12Gt 40"8"0 nimiperseilyyn, missä selvästi aivan eri, ja alemman tehokategorian kortti on nimetty ylemmän kategorian nimellä.

Millä nimellä sitä 3060 12Gt mallia olisi pitänyt sitten kutsua, että ei olisi johdettu harhaan... Olisko siihen pitäny laittaa mallinen perään "Warning! slower than 3060 Ti"
 
Vaikken mikää hirvee fani olekkaan näille "LT/TI/XT/PE/LE/SE" lisänimille korteille, nii on tää jotenki vähän härskimpää että kortit on täysin samannimisiä eri muistimäärällä mutta kuitenki sit reilusti eritehosia.
 
Eihän tuo nyt ole millään tasolla verrattavissa tähän 12Gt 40"8"0 nimiperseilyyn, missä selvästi aivan eri, ja alemman tehokategorian kortti on nimetty ylemmän kategorian nimellä.

Millä nimellä sitä 3060 12Gt mallia olisi pitänyt sitten kutsua, että ei olisi johdettu harhaan... Olisko siihen pitäny laittaa mallinen perään "Warning! slower than 3060 Ti"
3050ti 12gb? No lopetetaan tämä vanhojen tuotteiden offtopic, kun ei liity tulevaan tuotesarjaan
 
3050ti 12gb? No lopetetaan tämä vanhojen tuotteiden offtopic, kun ei liity tulevaan tuotesarjaan

Mitäs järkeä tuossa nyt olisi ollu, että oltaisi pistetty leikatumman piirin mallini 3060:lle... Sehän se vasta taas olisi ollutkin harhaanjohtamista, vaikkakin toisin päin.
 
Vaikken mikää hirvee fani olekkaan näille "LT/TI/XT/PE/LE/SE" lisänimille korteille, nii on tää jotenki vähän härskimpää että kortit on täysin samannimisiä eri muistimäärällä mutta kuitenki sit reilusti eritehosia.
Niin, se kortin nimen pitäisi ilmaista sen verrannollinen suorituskyky, ja muistin määrä ilmaisee muistin määrän.
Tällä logiikalla voi tulla 4080 20gb jossa on vähemmän cuda coreja kuin 4080 12gb, miksi ei?
 
Mitäs järkeä tuossa nyt olisi ollu, että oltaisi pistetty leikatumman piirin mallini 3060:lle... Sehän se vasta taas olisi ollutkin harhaanjohtamista, vaikkakin toisin päin.
On sitä ennenkin ollut eri piirillä kortteja samassa sarjassa, kuten GTX 660 (gk102) ja GTX 660ti (gk104, joka on myös GTX 670).

Eikä tuossa minunkaan ideassa ole järkeä, eikä sitä tilannetta muuta vaikka asiaa miten veivaa. Nvidia tekee omat päätöksensä ja meille jää lopulta aina vaan maksajan rooli. Josko nyt kuitenkin jatketaan siitä, että epäselvä tilanne on tulevan 4080:n kanssa, eikä tuollaisia nimeämisiä olisi hyvä tehdä. Olisi tehokkaampi malli ollut sitten vaikka rtx 4085 16gb
 
NVIDIA Vice President of Applied Deep Learning Research Bryan Catanzaro:


Eli tuosta voisi päätellä DLSS3 lisäävän viivettä. Vaikka FPS olisi korkea, niin tämä ei välttämättä välity pelikokemukseen. Tätä voi auttaa ottamalla käyttöön Nvidia Reflexin, jota myös vanhemmat kortit tukee. Onkohan tämä teknologia vähän kuin joku huiputus, millä saadaan fps testi näyttämään korkealta :psmoke:
Nvidian mukaan DLSS3 voi kuulemma laskea viivettä jopa kaksinkertaisesti. Tuon sivun yhdessä kuvassa näyttäisi olevan jopa 161ms>55ms parannus DLSS3 ja Reflex päällä vs molemmat pois. En sitten tiedä olisiko viive vielä pienempi perus DLSS2:lla ja Reflexillä.
 
Nvidian mukaan DLSS3 voi kuulemma laskea viivettä jopa kaksinkertaisesti. Tuon sivun yhdessä kuvassa näyttäisi olevan jopa 161ms>55ms parannus DLSS3 ja Reflex päällä vs molemmat pois. En sitten tiedä olisiko viive vielä pienempi perus DLSS2:lla ja Reflexillä.

Täysin hyödytön kuva, kun verrataan kahta täysin eri asiaa. Pitäis verrata dlss3 101 fps ja natiivi 101 fps.

Ja muutenkin, 55ms on aika huomattava määrä input lagia, joten varmistanee sen, että fps dlss3:lla ei tunnu samalta kuin sama fps natiivina.
 
On sitä ennenkin ollut eri piirillä kortteja samassa sarjassa, kuten GTX 660 (gk102) ja GTX 660ti (gk104, joka on myös GTX 670).

Eikä tuossa minunkaan ideassa ole järkeä, eikä sitä tilannetta muuta vaikka asiaa miten veivaa. Nvidia tekee omat päätöksensä ja meille jää lopulta aina vaan maksajan rooli. Josko nyt kuitenkin jatketaan siitä, että epäselvä tilanne on tulevan 4080:n kanssa, eikä tuollaisia nimeämisiä olisi hyvä tehdä. Olisi tehokkaampi malli ollut sitten vaikka rtx 4085 16gb

Juu ei tietenkään pitäisi tehdä typeriä ja harhauttavia nimeämistä ala 4080 12Gt, mutta RTX 3060 12Gt on täydellinen ja oikea nimi sille tuotteelle. Se kertoo täsmälleen oikein, mikä tuote on kyseessä. RTX 3060 jossa on 12Gt muistia. Se on sitten asiakkaan vastuulla selvittää, millainen nahdollinen vaikutus isommalla muistimäärällä on suorituskykyyn.
 
Mielenkiinnolla odottelen noita oikeita testejä dlss3:n vaikutuksista kuvanlaatuun. 30fps tai alle materiaalilla voi olla vaikea arpoa seuraavaa freimiä ilman artefakteja. 60fps kamasta saa jo melko helpolla 120fps kun esim monet tv:tkin siihen kykenee, täysin eri tavalla tietysti input lagin kustannuksella. Ja dioissa oli käytetty max performance -tilaa eli heikointa kuvanlaatua?

Jos totetutus hioutuu joskus niin hyväksi ettei virheitä huomaa monitorietäisyydeltä niin kehitysloikka käytännön suorituskyvyssä on merkittävä. Vielä tässä hetkessä en usko sekuntiakaan etteikö tuossa olisi haittapuolia liikaa, ellei pelaa parin metrin päästä pieneltä tv ruudulta ohjaimella hidastempoisia pelejä.
 
Mielenkiinnolla odottelen noita oikeita testejä dlss3:n vaikutuksista kuvanlaatuun. 30fps tai alle materiaalilla voi olla vaikea arpoa seuraavaa freimiä ilman artefakteja. 60fps kamasta saa jo melko helpolla 120fps kun esim monet tv:tkin siihen kykenee, täysin eri tavalla tietysti input lagin kustannuksella. Ja dioissa oli käytetty max performance -tilaa eli heikointa kuvanlaatua?
Jep, varmaan demottu performance modessa just siksi, että freimien välinen ero pysyisi pienenä ja kuvanlaatuhäikät tällöin vähäisemmät.

Performance modessa DLSS kuvanlaatu on jo muutenkin aika heikkoa ja vielä heikennetään tuolla sitten lisää... Ei ole kyllä kovin korkealla odotukset tälle härpäkkelle. Toivottavasti yllättää positiivisesti.
 
NVIDIA GeForce RTX 4090 Runs At Up To 2850 MHz at Stock Within 50C Temps In Cyberpunk 2077, DLSS 3 Cuts GPU Wattage By 25%

Cyberpunk 2077 1440P (Max Settings + Ultra RT + Psycho) 60fps ilman DLSS 3 (461 Watts)
1440p resolla melkein voi jo pelata 60fps! Seuraavassa genissä sitten locked.
 
studio-ada-perf-chart-3d-blog-1280w-dark.png

Suorituskykyero renderöinnissä näyttäisi olevan about sama kuin Turing -> Ampere
 
Vilkaisin vähän foorumin näyttismyyntialuetta, ja ihan kuin siellä olisi vähän ruuhkaa. Mahtaakohan nVidian kermankuorinta onnistua? :kahvi:
 
Vilkaisin vähän foorumin näyttismyyntialuetta, ja ihan kuin siellä olisi vähän ruuhkaa. Mahtaakohan nVidian kermankuorinta onnistua? :kahvi:
Eipä vielä näytä ainakaan kauppahinnat juuri pudonneen, vaikka tarjontaa on toki paljon enemmän aiempaan verrattuna.
Varmaankin vanhojen hintaspekulointiin olisi oikeampi ketju tuo
 
Täysin hyödytön kuva, kun verrataan kahta täysin eri asiaa. Pitäis verrata dlss3 101 fps ja natiivi 101 fps.

Ja muutenkin, 55ms on aika huomattava määrä input lagia, joten varmistanee sen, että fps dlss3:lla ei tunnu samalta kuin sama fps natiivina.

Se viive on myös huonompi 101 fps dlss3:lla verrattuna 60fps ilman dlss3sta.
 
Täysin hyödytön kuva, kun verrataan kahta täysin eri asiaa. Pitäis verrata dlss3 101 fps ja natiivi 101 fps.

Ja muutenkin, 55ms on aika huomattava määrä input lagia, joten varmistanee sen, että fps dlss3:lla ei tunnu samalta kuin sama fps natiivina.
Itse en näkisi järkeä tuommoisessa testissä. Jos peli pyörii jo natiivina 101fps niin miksi siihen kukaan sotkisi DLSS alunperinkään? Koko DLSS on kehitetty sitä varten että natiivina peli pyörii päin persettä joten otetaan DLSS mukaan ja saadan enemmän fps.
 
AD103 378,6mm²

AD104 294,5mm²

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.



Smith vielä erikseen vahvistaa Nvidian sanoneen AD103:ssä olevan 80SM yksikköä mikä on tuolla twitterin kommenteissa aiheuttanut ihmetystä. Ei vissiin mene yksiin 112 ROP-yksikön kanssa.
 
AD103 378,6mm²

AD104 294,5mm²

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Smith vielä erikseen vahvistaa Nvidian sanoneen AD103:ssä olevan 80SM yksikköä mikä on tuolla twitterin kommenteissa aiheuttanut ihmetystä. Ei vissiin mene yksiin 112 ROP-yksikön kanssa.


nVidialla ROPien määrää ei ole yli kymmeneen vuoteen sidottu laskentaytimien määrään, ne ovat olleet erillään. Sen sijaan ROPien määrä on joissain (ei ehkä kaikissa?) nVidian viime aikojen arkkitehtuureissa sidottu DRAM-muistiohjainten (muistikanavien) määrään.

TMUiden määrä sen sijaan on sidottu laskentaytimien määrään, TMUt on aina suoraan liitetty johonkin laskentaytimeen.
 
nVidialla ROPien määrää ei ole yli kymmeneen vuoteen sidottu laskentaytimien määrään, ne ovat olleet erillään. Sen sijaan ROPien määrä on joissain (ei ehkä kaikissa?) nVidian viime aikojen arkkitehtuureissa sidottu DRAM-muistiohjainten (muistikanavien) määrään.
Itseasiassa luin vähän väärin, tuolla sanotaan 112 ROPin viittaavan seitsemään GPC:hen, joka viittaa 84 SM:ään, mutta ehkä tolla ei lopputuloksen kannalta ole merkitystä, jos tosiaan ovat sidottu muistiohjaimien määrään.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.



SM määrät ilmeisesti muissa siruissa 12x GPC:iden määrä, mutta tuo AD103:n 80 SM ei ole 12:lla jaollinen, joten ehkä vähän eri struktuuri sitten.

Turingissahan TU102 ja TU104:ssä oli sama määrä GPC:itä mutta eri määrä SM:iä, eli vähän eri rakenne.
 
Jos ihmiset ei ostais noita isoja kalliita kortteja niin niiden tekeminen loppuisi ja saisi vain sitä halvempaa kaupasta. Ei 4090:en BOM muutu siitä yhtään halvemmaksi osti niitä porukka tai ei. Jäis vain ad102 kokonaan tekemättä ja olis vain joku ad104 kaupassa. Vrt. jos jengi lopettaa ferrarin ostamisen niin ei niitä ferrareita maagisesti tule kauppaan toyotan hinnalla.

Lienee kuitenkin ihan kivat n. 70% kate valmistuskustannusten jälkeen noissa top level korteissa (ainakin chipin osalta).
 
Lueskelin PC Gamerin artikkelia 4080-korteista ja kyllähän tuo pettymys alkaa nousta alkuinnostuksen jälkeen pintaan. Artikkelissa sanotaan mm. että nVidia tietää tarkalleen mitä AMD:ltä on tulossa ja 4080-korteista on tehty vain "tarpeeksi hyvät". Ja siinä missä 3080:ssa oli n. 80 % 3090:n shadereista, niin 4080:ssa (16GB) on vain 59 % 4090:n shadereista. Toistaiseksi en tee ostopäätöstä mistään, vaan odottelen arvosteluita.
 
Generaatio generaatiolta itseni kaltaiselle ns tarkan markan budjettipelaajalle tilanne on huonontunut.
Ennemminkin jo kirjoittanut, että 3000 sarjassa oli kehno suuntaus eli hinta putosi suurinpiirtein samassa suhteessa kuin tehot -> Aiemmin budjettipelaaja sai paremmin tehoa pienemmällä rahalla.
Mittarina käytetty Techpowerupin relative perfonmance listausta ja julkaisuhintaa dollareina.

Nyt eilen piirtelin excelillä käppyrät:
1000.png
2000.png
3000.png

Nyt julkaistusta 4000 sarjastahan ei ole oikeata dataa saatavilla, vain Nvidian itsensä julkaisemat muutamat pelit.
Niiden kertoma on vieläkin tasapäisempää teho/hinta leikkausta kuin 3000 sarjassa.
4000.png
 
Lueskelin PC Gamerin artikkelia 4080-korteista ja kyllähän tuo pettymys alkaa nousta alkuinnostuksen jälkeen pintaan. Artikkelissa sanotaan mm. että nVidia tietää tarkalleen mitä AMD:ltä on tulossa ja 4080-korteista on tehty vain "tarpeeksi hyvät". Ja siinä missä 3080:ssa oli n. 80 % 3090:n shadereista, niin 4080:ssa (16GB) on vain 59 % 4090:n shadereista. Toistaiseksi en tee ostopäätöstä mistään, vaan odottelen arvosteluita.

Aika tylyä kommentointia PC-gamerilta kyllä... Saa nähdä miten käy. Noh, eiköhän 3060 ti palvele vielä useamman vuoden... :rolleyes:
 
Generaatio generaatiolta itseni kaltaiselle ns tarkan markan budjettipelaajalle tilanne on huonontunut.
Mittarina käytetty Techpowerupin relative perfonmance listausta ja julkaisuhintaa dollareina.

Onko tuo inflaatiokorjattu? Muutenhan se ei kerro hinnasta kovinkaan paljon. Toki yleinen elektroniikan hinnan lasku jonkin verran vaikuttaa, mutta eipä tuota hinnan laskua muillakaan komponenteilla enää juuri tapahdu (vaan samalla rahalla saa hivenen enemmän, esim. kapasiteettia kuin vuosi sitten).


Mutta olen kyllä sinällään samaa mieltä, että budjetti pelaajalle ei ole Nvidialta tullut juuri 1000 sarjan jälkeen mitään.
 
Onko tuo inflaatiokorjattu? Muutenhan se ei kerro hinnasta kovinkaan paljon. Toki yleinen elektroniikan hinnan lasku jonkin verran vaikuttaa, mutta eipä tuota hinnan laskua muillakaan komponenteilla enää juuri tapahdu (vaan samalla rahalla saa hivenen enemmän, esim. kapasiteettia kuin vuosi sitten).


Mutta olen kyllä sinällään samaa mieltä, että budjetti pelaajalle ei ole Nvidialta tullut juuri 1000 sarjan jälkeen mitään.
Inflaatio ei juuri vaikuta, jos saman generaation kortteja verrataan vain keskenään. Muutenkin näkisin että 500€ kortti on 500€ kortti ja 550€ kortti 2 vuoden päästä on kalliimpi, vaikka inflaatio olisi mitä. Ainakaan oma ostovoimani nouse inflaation noustessa, jolloin jokainen euro on pois samalla tavalla taskusta
 
Ei se samaan generaatioon vaikutakaan, mutta jos lähdetään vertaamaan yleisesti vähänkään pidemmälle niin onhan sillä massiivinen vaikutus.

Mitä budjetti pelaamiseen tulee, niin ei siitä montaa vuotta ole kun rx580 sai kaupasta sillä 150 eurolla ja itsekin ostin 2600x:n alle 120e jimssistä. Noiden edullisempien korttien hinta on sinänsä pysynyt hyvin omistuksessa, kun uudet kortit eivät noille hintatasoille ole laskeneet missään vaiheessa.
 
Ei se samaan generaatioon vaikutakaan, mutta jos lähdetään vertaamaan yleisesti vähänkään pidemmälle niin onhan sillä massiivinen vaikutus.

Mitä budjetti pelaamiseen tulee, niin ei siitä montaa vuotta ole kun rx580 sai kaupasta sillä 150 eurolla ja itsekin ostin 2600x:n alle 120e jimssistä. Noiden edullisempien korttien hinta on sinänsä pysynyt hyvin omistuksessa, kun uudet kortit eivät noille hintatasoille ole laskeneet missään vaiheessa.
Nyt ei kuitenkaan @kajakkivajakki lähteny vertaamaan yhtään sitä yhtä sukupolvea pidemmälle niitä korttien teho/euroja niin ei ollut mitään tarvetta inflaation vaikutuksia ihmetellä.
 
Lienee kuitenkin ihan kivat n. 70% kate valmistuskustannusten jälkeen noissa top level korteissa (ainakin chipin osalta).
Noita katenumeroita voi heitellä pepusta. Miten olet päätynyt 70% katteeseen? EVGA:n kate ei ollut niin iso, igor's lab:in artikkeli laittoi katteet 5-10%:lle aib:lle amperen suhteen. 5nm pohjaiset piirit ovat kalliimpia valmiista, kalliimpia suunnitella ja fe tuuletinta, virransyöttöä yms. on tuunattu paremmaksi ei välttämättä halvemmaksi versus ampere. Tuo 4n ad102 saattaa olla tuplahintainen pelkän piirin valmistamisen osalta versus ga102 ennen kuin aletaan latomaan muita kohonneita kustannuksia ja r&d kuluja päälle,...

Mä väittäsin, että noi isot piirit on pelimaailman ferrareita. Jos ne jää ostamatta niin ne helposti voi myös jäädä tekemättä tai päätyvät samaan kategoriaan hopper konesaligpu:n kanssa missä myydään vain entistä kalliimpaa tuotetta pro-käyttäjille ja jää kuluttajat välistä. En usko, että kysyntää laskemalla tuollainen piiri tulisi halvemmaksi muuta kuin loppuunmyynnissä ja seuraavassa generaatiossa jäisi piiri välistä.
 
Nyt ei kuitenkaan @kajakkivajakki lähteny vertaamaan yhtään sitä yhtä sukupolvea pidemmälle niitä korttien teho/euroja niin ei ollut mitään tarvetta inflaation vaikutuksia ihmetellä.

Ok, luin ne tekstit ja generaatiolta generaatiolle antoi vaan väärän käsityksen.

Mitä katteisiin tulee, niin jos tuosta siirtyy nykyään 70%+ suoraan nvidialla ja se 5-10% OEM tahoille niin kyllähän siellä katteet on kunnossa, vaikka eivät välttämättä itse korttien valmistajilla (ja siis OEM katteet ovat laskeneet koko ajan).
 
Noita katenumeroita voi heitellä pepusta. Miten olet päätynyt 70% katteeseen? EVGA:n kate ei ollut niin iso, igor's lab:in artikkeli laittoi katteet 5-10%:lle aib:lle amperen suhteen. 5nm pohjaiset piirit ovat kalliimpia valmiista, kalliimpia suunnitella ja fe tuuletinta, virransyöttöä yms. on tuunattu paremmaksi ei välttämättä halvemmaksi versus ampere. Tuo 4n ad102 saattaa olla tuplahintainen pelkän piirin valmistamisen osalta versus ga102 ennen kuin aletaan latomaan muita kohonneita kustannuksia ja r&d kuluja päälle,...

Mä väittäsin, että noi isot piirit on pelimaailman ferrareita. Jos ne jää ostamatta niin ne helposti voi myös jäädä tekemättä tai päätyvät samaan kategoriaan hopper konesaligpu:n kanssa missä myydään vain entistä kalliimpaa tuotetta pro-käyttäjille ja jää kuluttajat välistä. En usko, että kysyntää laskemalla tuollainen piiri tulisi halvemmaksi muuta kuin loppuunmyynnissä ja seuraavassa generaatiossa jäisi piiri välistä.

Muah, Nvidian kate on aivan eri luokkaa kuin AIB:n. Sanoin, että "kate chip:lle". Nvidia myy ne AIB:lle. Nvidian net sales - COGS on jo pitkään ollut 60+ ja viimeksi n. 65%. Sä voit itse heitellä pepusta noita lukuja, mutta tuo 70% on aika lähellä nykytilannetta ja nimenomaan noilla isoilla piireillä se voi olla vielä paljon korkeampikin.
 
Muah, Nvidian kate on aivan eri luokkaa kuin AIB:n. Sanoin, että "kate chip:lle". Nvidia myy ne AIB:lle. Nvidian net sales - COGS on jo pitkään ollut 60+ ja viimeksi n. 65%. Sä voit itse heitellä pepusta noita lukuja, mutta tuo 70% on aika lähellä nykytilannetta ja nimenomaan noilla isoilla piireillä se voi olla vielä paljon korkeampikin.
Nvidia antoi kuukausi sitten tulosvaroituksen ja kvartaaliraportin missä firman bruttovoitto 40% pinnassa entisen reilun 60% sijaan. Tämä siitä huolimatta että konesalibisnes ei yski ja konesalibisneksen koko tuplat pelipuoleen verrattuna.

Mutta joo, arvailla voi, mutta ei kannata arvailua väittää tiedoksi. Kate pitää kuitenkin laskea lopputuotteesta. Olis niin helppoa, jos ainoa kustannus olisi piikiekko.
 
Nvidia tosin myös melkein tuplasi tuotekehityskustannuksensa, että ilman tietoa mitä luvut oikeasti kertovat niistä on aika vaikea sanoa mitään (muuta kuin sen, että kryptobuumi törmäsi seinään).
 
Tai nvidia vaa huomaa kuin paljo porukka on valmis maksaa korteista ja nyt koitetaa kepillä jäitä.
 
Täysin hyödytön kuva, kun verrataan kahta täysin eri asiaa. Pitäis verrata dlss3 101 fps ja natiivi 101 fps.

Tuossa Cyberpunk 2077 vertailussahan näkyy, että viive on sama DLSS2 vs. DLSS3, mutta DLSS3:lla fps on ~30 enemmän. Eli ei lisää viivettä. Tuo on tosin varmaan saavutettu Nvidia Reflexillä jonka tukea ei kovin monesta näytöstä löydy.

Tätä en ollut nähnyt vielä mainittavan. Että kun peliä pystytään ajamaan korkeammalla FPS:llä niin silloin myös paneelia pystytään ajamaan korkeammalla virkistystaajuudella, joka vähentää viivettä, eikö vain? Tämä siis kun oletetaan että on G-sync tai vastaava VRR-teknologia käytössä.
 
Viimeksi muokattu:
Tuossa Cyberpunk 2077 vertailussahan näkyy, että viive on sama DLSS2 vs. DLSS3, mutta DLSS3:lla fps on ~30 enemmän. Eli ei lisää viivettä. Tuo on tosin varmaan saavutettu Nvidia Reflexillä jonka tukea ei kovin monesta näytöstä löydy.

Eikö se nimenomaan osoita sen että viivettä tulee lisää? Suuremman FPS:n pitäisi laskea viivettä, jos se on nyt kuitenkin sama kuin alemmalla FPS:llä niin silloinhan viive on jossain muualla pipelinessä korkeampi.
 
Riippuu miten tuota katsoo. Jos vaihtoehtona on 60fps vs. DLSS3 120fps niin niissä on sama viive, eli mitään ei tullut lisää joten miksi et käyttäisi DLSS3:sta jolla saat smoothimman kuvan (olettaen että se oikeasti toimii)? Jos vertaa 120fps vs. DLSS3 120fps niin viivettä on toki yhden framen verran, kun ne on puhtaasti näytönohjaimen ennustamia joihin ei käyttäjän komentoja lasketa mukaan.

Toisin sanoaen, viive on korkeampi kuin samalla natiivi FPS:llä, mutta DLSS3:n päälle laittaminen ei viivettä lainkaan lisää kun et peliä alkujaankaan 120fps pyörittänyt.
 
Tuo on tosin varmaan saavutettu Nvidia Reflexillä jonka tukea ei kovin monesta näytöstä löydy.
Reflexin vaikutus viiveeseen ei ole riippuvainen yhteensopivasta näytöstä. Eli kunhan on riittävän uusi Nvidian näyttis ja peli joka tukee Reflexiä niin sitä voi hyödyntää millä tahansa näyttölaitteella.

Reflex Analyzer on ominaisuus joissain näytöissä, jolla voi monitoroida hiiren viivettä tms. kunhan hiirikin yhteensopiva.
 
Riippuu miten tuota katsoo. Jos vaihtoehtona on 60fps vs. DLSS3 120fps niin niissä on sama viive, eli mitään ei tullut lisää joten miksi et käyttäisi DLSS3:sta jolla saat smoothimman kuvan (olettaen että se oikeasti toimii)? Jos vertaa 120fps vs. DLSS3 120fps niin viivettä on toki yhden framen verran, kun ne on puhtaasti näytönohjaimen ennustamia joihin ei käyttäjän komentoja lasketa mukaan.

Toisin sanoaen, viive on korkeampi kuin samalla natiivi FPS:llä, mutta DLSS3:n päälle laittaminen ei viivettä lainkaan lisää kun et peliä alkujaankaan 120fps pyörittänyt.
Koska se näyttää, ainakin sen ainoan näkemäni vertailun perusteella, merkittävän huonolta.
 
Jos vaihtoehtona on 60fps vs. DLSS3 120fps niin niissä on sama viive

Koska jos se toimii noin, niin se peli tulee silti tuntumaan 60fps peliltä. Jos sillä pystyy pelaamaan, onnittelut niille tyypeille. Ja vaikka lähtökohtana olisi se 90fps (joka itselle on se absoluuttinen minimi) ja dlss3 nostaisi sen vaikkapa 180fps, niin siinäkin on vaarana se, että se tuntuisi liian väärältä.

Varmasti jossain tosi hidastempoisissa peleissä dlss3 tulee olemaan ok, mutta se suurin epäily kohdistuu siihen, miten nää nopeatempoiset pelit (esim räiskinnät) sillä sitten toimii.
 
Riippuu miten tuota katsoo. Jos vaihtoehtona on 60fps vs. DLSS3 120fps niin niissä on sama viive, eli mitään ei tullut lisää joten miksi et käyttäisi DLSS3:sta jolla saat smoothimman kuvan (olettaen että se oikeasti toimii)? Jos vertaa 120fps vs. DLSS3 120fps niin viivettä on toki yhden framen verran, kun ne on puhtaasti näytönohjaimen ennustamia joihin ei käyttäjän komentoja lasketa mukaan.

Toisin sanoaen, viive on korkeampi kuin samalla natiivi FPS:llä, mutta DLSS3:n päälle laittaminen ei viivettä lainkaan lisää kun et peliä alkujaankaan 120fps pyörittänyt.

Näytöthän on jo pitkään tehny tuplausta jos ollaan adaptive sync alueella, eli 60FPS tuplataan jolloin näyttö pyörittää peliä 120Hz. Eli tuodaanko tässä nyt markkinoille kaikkien aikojen huijaus? :D Toi näytön tuplaushan ei näy FPS mittareissa mutta tää nvidian gimmikki näkyy FPS mittareissa vaikka latessin puoleen on ihan sama pyöriikö se 60FPS vaiko 120FPS.
 
Näytöthän on jo pitkään tehny tuplausta jos ollaan adaptive sync alueella, eli 60FPS tuplataan jolloin näyttö pyörittää peliä 120Hz. Eli tuodaanko tässä nyt markkinoille kaikkien aikojen huijaus? :D Toi näytön tuplaushan ei näy FPS mittareissa mutta tää nvidian gimmikki näkyy FPS mittareissa vaikka latessin puoleen on ihan sama pyöriikö se 60FPS vaiko 120FPS.

Se että näyttö piirtää saman kuvan kahdesti perättäin ei lisää fps.
 

Statistiikka

Viestiketjuista
295 877
Viestejä
5 054 574
Jäsenet
80 995
Uusin jäsen
klankton

Hinta.fi

Back
Ylös Bottom