Follow along with the video below to see how to install our site as a web app on your home screen.
Huomio: This feature may not be available in some browsers.
Hyvää joulua!
Osallistu io-techin piparikakkutalokilpailuun 2025 Linkki osallistumisketjuun >>>
SER-huutokaupat hyväntekeväisyyteen käynnissä! Linkki huutokauppaan >>>
Onko tuolla muistien nopeudella edes kuinka suurta merkitystä pelikäytössä?
Jos on aito kuva niin tuossa on lähdetty hakemaan hiljaista ja tehokasta jäähdytystä jolla saadaan 1440p ja 4k raytracemaan vähintään 60fps nopeudella. Tuohon vielä dlss 3.0 niin kyllä kelpaa.Eli siis tämänhetkisten huhujen mukaan tuossa 3080 kortissa olisi sama määrä Cuda coreja kuin 2080 ti:ssä ja 10-20% IPC parannus. Jos kellot on samalla myös hieman korkeammat niin ei ole mitenkään mahdotonta että olisi sen 20-30% nopeampi.
Ja toinen huhu kertoo että Ray tracing suorituskyky olisi jopa 4x parempi jokaisessa luokassa. (eli siis esim. 2080 vs 3080). Silloin sekin voisi olla sen 2-3x parempi kuin 2080 ti...
Siis jos huhut pitävät lähellekkään paikaansa niin hyvä kortti sieltä on tulossa.
Vai että ainoa syy..tuskimpa.Muista miksi valmistajat tekevät "marginaalituotteita". Koska kilpailutilanne. Voin uskoa NVIDIAn pistävän lisää watteja pesään jos se on tarpeen että Big Navi voitetaan. Samasta syystä AMD aikoinaan puski noita 2 GPU "halokortteja" kun ei muuten pärjännyt, tai yleensäkin noita refekortti-vesijäähyllä -virityksiä. Tässä 3080 sentään ei ole AIO vesijäähyä vakiona, mutta tuommoinen extreme propelliratkaisu tuskin olisi tehty jos siihen ei ole mitään syytä ja vanhan liiton 2080-cooleri riittäisi. Ainoa syy viritellä jäähdytystä paremmaksi on että vanhan vääntö ei riitä.
Tuo moorelawis dead oli kuukausi sitten huhuvideo jossa 3080 on 18gbs gddr6 muisti 320bit väylällä--tarvitsee kunnon tuuletusta.Yksi huhuartikkeli, tuo kopemite ja moores law is deadin uusin video, joka oli tuon tweaktownin linkatun artikkelin lähteenä.
Korkea tehonkulutus kuulostaa siinä mielessä ihan mahdolliselta että A100:kin hörppää 400W ja silti kellot on melko alhaiset verrattuna edeltäjiin.
Korkea tehonkulutus tarkoittaisi myös kalliita ja mahdollisesti silti äänekkäitä jäähdytysratkaisuja.
On hieman eri luokassa painiva tämä A100Korkea tehonkulutus kuulostaa siinä mielessä ihan mahdolliselta että A100:kin hörppää 400W ja silti kellot on melko alhaiset verrattuna edeltäjiin.
Korkea tehonkulutus tarkoittaisi myös kalliita ja mahdollisesti silti äänekkäitä jäähdytysratkaisuja.
Kyllä se samassa luokassa esim. V100:n kanssa painii, johon edeltäjillä viittasin.On hieman eri luokassa painiva tämä A100
Tähän vielä jäisipä alle 240w niin kiitän ja kumarran.On hieman eri luokassa painiva tämä A100
Huippu Ampere voi toki yltää 385w arvoihin ja varmasti siis kunnon kelloilla yltääkin mutta on siinä sitten suorituskykyäkin luvassa.
2080Ti salama menee kellotettuna myös 385w arvoihin, mutta menee yli sweet spottien noi kellot ja kulutus lähtee vähä lapasesta
Sinä viittasit Ampereen ja tuohon 385w kulutukseen tällä.Kyllä se samassa luokassa esim. V100:n kanssa painii, johon edeltäjillä viittasin.
V100 300W, boost clock 1530 MHz
A100 400W, boost clock 1410 MHz

minusta tuntuu että 7nm tsmc nvidialla on saatu aika hyväksi tehon kulutuksen suhteen jos pumppaavat korttiin lisääpotkua varmistaakseen kilpailukyvyn.Ja minua hulluksi sanottiin kun ostin 850w powerin vuonna -paavo. silloin oli fx-8320 ja rx390x haukkaamassa virtaa. Oli kuulemma overkill koska tuleva vihreä maailma ei voi mitenkään viedä yli 500w koko koneelta
T: Kellot tappiin vaikka vanhasta Seikosta
Yritin alunperin sanoa, että Ampere Geforcejen korkea tehonkulutus kuulostaisi hyvinkin mahdolliselta, kun ottaa huomioon kuinka tehosyöppö tuo A100 on edeltäjiinsä (V100 lukeutuu näihin!) verrattuna.Ja nyt sotket soppaan Voltan V100? vaikka ensin viittasit selvästi 385w tulevaan Ampereen???
Mitä näitä keskusteluja seurannut, niin nimenomaan nvidian käyttäjät on isosti juuri pienemmän tehonkulutuksen vuoksi näitä valinnut. Vähemmän lämpöä, vähemmän ääntä jne. Toki sitten erikseen ne jotka tarvitsee huippumallin, siinähän ei ole enää tehonkulutuksen kannalta mitään tekemistä kun ne on monesti kellotettukin tappiin eikä ole valinnan varaakaan kun kilpailua ei ole.Eipä sillä tehonkulutuksella ole ainakaan minulle juurikaan merkitystä, paitsi jos kilpailijalla on saman tehoinen kortti huomattavasti pienemmällä tehonkulutuksella... Silloinkin hinta on isompi tekijä...
Onhan se 385w kulutus mahdollista jo 2080Ti ohjaimillakin.Yritin alunperin sanoa, että Ampere Geforcejen korkea tehonkulutus kuulostaisi hyvinkin mahdolliselta, kun ottaa huomioon kuinka tehosyöppö tuo A100 on edeltäjiinsä (V100 lukeutuu näihin!) verrattuna.
Se V100 oli alunperinkin jo sopassa, ehkäpä olisi pitänyt mainita nimeltä niin olisi ollut helpompi ymmärtää.
Pienempi kulutus ja energiatehokkuus on 2 eriasiaa.Mitä näitä keskusteluja seurannut, niin nimenomaan nvidian käyttäjät on isosti juuri pienemmän tehonkulutuksen vuoksi näitä valinnut. Vähemmän lämpöä, vähemmän ääntä jne. Toki sitten erikseen ne jotka tarvitsee huippumallin, siinähän ei ole enää tehonkulutuksen kannalta mitään tekemistä kun ne on monesti kellotettukin tappiin eikä ole valinnan varaakaan kun kilpailua ei ole.
Tämä nyt on ihan eri kysymys. Minä puhuin tehonkulutuksesta jolloin V100 ja A100 vertailu ehkä hieman valottaa mihin suuntaan ollaan menossa, tai sitten ei.Kysymys kuuluukin montako ydintä nopeimmassa amperessa on ja millaiset kellot. (V100 ja A100 vertailu tuskin avaa asiaa?)
5nm se ei taatusti ole, kysymys on lähinnä onko se TSMC:n N7, N7P vai N7+ EUV, vai jopa Samsung (7nm EUV tai 8nm DUV)3080Ti / 3090 tulee omien arvausten perusteella TSMC:n 7nm UEV -prosessilla valmistettuna (5nm ratkaisuun en aivan jaksa uskoa).
Eli siis tämänhetkisten huhujen mukaan tuossa 3080 kortissa olisi sama määrä Cuda coreja kuin 2080 ti:ssä ja 10-20% IPC parannus. Jos kellot on samalla myös hieman korkeammat niin ei ole mitenkään mahdotonta että olisi sen 20-30% nopeampi.
Ja toinen huhu kertoo että Ray tracing suorituskyky olisi jopa 4x parempi jokaisessa luokassa. (eli siis esim. 2080 vs 3080). Silloin sekin voisi olla sen 2-3x parempi kuin 2080 ti...
Siis jos huhut pitävät lähellekkään paikaansa niin hyvä kortti sieltä on tulossa.
Ensimmäiseen kysymykseen vastaus on --katso vaikka not apple fan youtube video eiliseltä ampere video jossa näkyy kopite@kimi postaus kesäkuun alusta--siinä viitataan 3080 specsit.Onko jotain lähdettä näille huhuille? Vaikuttaa nimittäin jossain määrin epäuskottavalta tämä ensimmäinen:
GPUssa ei ole mitään järkeä uhraamaan hirveää määrää transistoreita paremman IPCn tavoitteluun, kun rinnakkaista laskettavaa on kuitenkin paljon.
Erityisesti kun vielä säteenjäljitys- ja tensoriyksiköiden määrä on sidottu niihin shader-prosessoreihin.
Tuollainen "10-20% lisää IPCtä ja vain pieni ydinmääränlisäys" olisi vaan helposti huonompi piiri kuin Turingin suora die-shring ja lisäpinta-alan käyttö suurempaan määrään ytimiä. Ja nVidia ei ole tyhmä, eikä tuppaa tehdä huonoja ratkaisuita.
Ellei sitten kyse ole siitä, että piiristä haluttiin tehdä selvästi pienempi jolloin niitä ytimiä ei kuitenkaan mahdukaan kovin paljoa, ja se IPC saatiin kuitenkin melko halvalla
Se on suomeksi "säteenjäljitys".
Mutta tämä on ihan mahdollista, käytännössä siten että säteenjäljitysyksiköiden määrä/ydin, tai yksittäisen säteenjäljitysyksikön throughput-nopeus tuplataan, ja sitten suurempi määrä ytimiä + kellojen lisäys antaa toisen tuplauksen.
8192 ytimellä TDP 400w
vai oliko se 6912 ydintä ja 400w siis.
ja minä sanoin että A100 painii ihan eriluokassa(siinä on 6192 ydintä ja kaistaa 1.6TB/s jne...)
Ensimmäiseen kysymykseen vastaus on --katso vaikka not apple fan youtube video eiliseltä ampere video jossa näkyy kopite@kimi postaus kesäkuun alusta--siinä viitataan 3080 specsit.
Saman kaverin speksit joka puhuu ties mistä olemattomista GDDR6X-muisteistaEnsimmäiseen kysymykseen vastaus on --katso vaikka not apple fan youtube video eiliseltä ampere video jossa näkyy kopite@kimi postaus kesäkuun alusta--siinä viitataan 3080 specsit.

Tarkoitin tuossa että painii ihan eri sarjassa ja asioissa suorituskyvyn suhteen kuin peli ampere,virrankulutuksesta en sitten tiedä kun hieman eroaa kuitenkin "peli" Amperesta6912 cudaa ja varsin maltillisilla kelloilla (piiriltä kyllä löytyy 8192 cudaa mutta niitä on poistettu käytöstä ja osa ihan vaan rikki. Saantojen parantamiseksi näin tehty).
Kellot, cuda määrä ja toi kulutus on se mikä itteäni hiukan kummastuttaa, toki tuossa A100:ssa on paljon sellaista roskaa syömässä virtaa jota ei kuluttaja kortteihin tule, mutta kuluttaja kortteihin taas tulee jotain mitä A100:ssa ei ole. Eli jotenkin toi kulutus kyllä tuntuu aika kovalta.
Ja se kaista saavutetaan HBM2 muisteilla jotka kuluttaa selvästi vähemmän virtaa kuin GDDR6. TOi A100 DDR6 muisteilla ja tuolla kaistalla hörppäisi selvästi enemmän hattiwatteja mitä se nyt tekee.
Triviaalisti nähdään että muistin määrä ja muistiväylän leveys ei matchää. Silti pitänyt retweetata.
Oliskohan kaveri selannu Cdon.com sivustoa ja tehnyt vähän johtopäätöksiäSaman kaverin speksit joka puhuu ties mistä olemattomista GDDR6X-muisteista![]()

Öh, miten niin ei mätsää? 32-bit per kika niin hyvinhän toi näyttäisi osuvan kohdilleen.
Oliskohan kaveri selannu Cdon.com sivustoa ja tehnyt vähän johtopäätöksiä
![]()
Moni paikka näemmä ilmoittaa että muistit olisi GDDR6X
Onko jotain lähdettä näille huhuille? Vaikuttaa nimittäin jossain määrin epäuskottavalta tämä ensimmäinen:
GPUssa ei ole mitään järkeä uhraamaan hirveää määrää transistoreita paremman IPCn tavoitteluun, kun rinnakkaista laskettavaa on kuitenkin paljon.
Erityisesti kun vielä säteenjäljitys- ja tensoriyksiköiden määrä on sidottu niihin shader-prosessoreihin.
Tuollainen "10-20% lisää IPCtä ja vain pieni ydinmääränlisäys" olisi vaan helposti huonompi piiri kuin Turingin suora die-shring ja lisäpinta-alan käyttö suurempaan määrään ytimiä. Ja nVidia ei ole tyhmä, eikä tuppaa tehdä huonoja ratkaisuita.
Ellei sitten kyse ole siitä, että piiristä haluttiin tehdä selvästi pienempi jolloin niitä ytimiä ei kuitenkaan mahdukaan kovin paljoa, ja se IPC saatiin kuitenkin melko halvalla
Se on suomeksi "säteenjäljitys".
...ja jonka "ennustuksista" meni puolet juuri mönkään kun NVIDIA julkaisi Amperen eikä täsmännytkään sen "tietojen" kanssa?Huomasit varmaan että 3080 kortissa olisi sama määrä Cuda ytimiä kuin 2080 TI kortissa (4352). Eli 1408 kappaletta enemmän mitä 2080 kortissa (2944), joka on saman luokan Turing kortti. TI kortissa varmasti sitten on reilusti enemmän...
Lähteenä taisi olla alunperin tuo Moore's Law Is Dead jonka monikin sivusto sitten julkaisi...
Peli amperessa vähemmän ytimiä ja muuta "turhaa" mutta kovemmat kellot.
Luonnollisesti sieltä varmaan tulee ohjaimia tuttuun 200-300w TDP haarukkaan. 385w TDP sitten täytyisi olla jo mukavasti ytimiä kohtuu kelloilla.
Olisi mielenkiintoista tietää paljonko
40GB HBM2 2.4Gbps, 5120bit 1.6TB/s kuluttaa.
Vaikea uskoa että kulutus olisi ainakaan perus GDDR6 muisteja matalempi tuossa kokoluokassa.
Öö, täh? Ei ne matalat kellot liity mitenkään siihen paljonko 7nm nodesta saatiin hyötyä energiankulutukseen (vinkki: se auttoi paljon)Niin toki tulee mutta itteäni vain kummastuttaa tuon A100 hyvin maltilliset kellot. Volta on varmaan lähin mihin voi verrata niin tuntuisi että ei ole oikein mitään hyötyä saatu 7nm nodesta energian kulutuksen suhteen.
Öö, täh? Ei ne matalat kellot liity mitenkään siihen paljonko 7nm nodesta saatiin hyötyä energiankulutukseen (vinkki: se auttoi paljon)
Sitä on pumpattu ylös 50 wattia. Siinä sirussa on yli 2,5 kertaa enemmän transistoreja.Asia selvä. Muuten vain ihan huvikseen on TDP:tä pumpattu reippaasti ylös. Eihän se nyt eka kerta olisi että piiri ei käyttäydykkään kuten on oletettu ja kuluttaa enemmän.
Melkoisen järjetön määrä eroa transistoreissa, johtuuko sitten mistä? oma tietämys A100/V100 heikon puoleinen kun ei ole joutunut niihin sen paremmin perehtymään.Sitä on pumpattu ylös 50 wattia. Siinä sirussa on yli 2,5 kertaa enemmän transistoreja.
Siinä on 50% leveämpi muistiohjain, 60% enemmän CUDA-ytimiä, uusia temppuja osaavia järeämpiä tensoriyksiköitä, enemmän ja järeämpiä NVLinkkejä jne jne jneMelkoisen järjetön määrä eroa transistoreissa, johtuuko sitten mistä? oma tietämys A100/V100 heikon puoleinen kun ei ole joutunut niihin sen paremmin perehtymään.
Sitä on pumpattu ylös 50 wattia. Siinä sirussa on yli 2,5 kertaa enemmän transistoreja.
Siinä on 50% leveämpi muistiohjain, 60% enemmän CUDA-ytimiä, uusia temppuja osaavia järeämpiä tensoriyksiköitä, enemmän ja järeämpiä NVLinkkejä jne jne jne
Syystä X NVIDIA ei ole päivittänyt sivuilleen, mutta tuosta V100:sta on myös 350W versio![]()
NVIDIA Data Centers for the Era of AI Reasoning
Accelerate and deploy full-stack infrastructure purpose-built for high-performance data centers.www.nvidia.com
250/300W (mallista riippuen) vs. 400W
Vaikuttaisi että suurin osa niistä transuista on mennyt uusiin ominaisuuksiin joita Voltassa ei ole. Sitähän en toki tiedä että saako tuon A100 hörppäämään tuon 400W pelkästään cudaa hyrskyttämällä.
www.nextplatform.com
It is worth noting that Nvidia increased the power consumption rating for the new Tesla V100 32 GB SXM3 module to 350 watts from the 16 GB version’s 300 watt rating. Nvidia also upgraded the 32 GB version’s air-cooled heat sink.
Koko sirusta. Koita pistää mieluummin yhteen viestiin kaksi asiaa kuin kaksi peräkkäistä lyhyttä viestiäMillä matematiikalla sie oikein saat 60% enemmän cuda ytimiä A100 vs V100? 6912 vs 5120 on miun laskejen mukaan 35% enemmän.
Koko sirusta. Koita pistää mieluummin yhteen viestiin kaksi asiaa kuin kaksi peräkkäistä lyhyttä viestiä
Ei ole niin yksinkertaista kuin esim näissä Turing pascal tms peli näytönohjain vertailuissa.Ja ne disabloidut coret vie kuinka paljon sähköä?
Igorin mukaan Nvidia on käynnistänyt tutkinnan vuodosta. Pitää myös ilmeisesti varmana, että GDDR6X käytössä:
"All three expected launch cards will definitely be equipped with GDDR6X..."
![]()
Exclusive info about NVIDIA’s Ampere: 3 models, memory size, PCBs, an extremely expensive cooler for the FE and the search for the leak | igor´sLAB
Recently I had already posted some information about the new graphics card generation from NVIDIA and also processed it in the video, but I was still a little bit reserved concerning the currently…www.igorslab.de
Ettei tuo 3090 olisi kuitenkin sitten uusi Titan? Muistimäärä siihen viittaisi...
Saiskohan ilman jäähyä?Sitä videocardz ainakin veikkaisi. Siellä myös arveltiin jäähyn hinnaksi 150usd.

Vaikka Igorilla on hyvä maine, niin vähän kyllä haisee siltä että nyt haukkaa kakkaa. Mahdollisuudet sille, että taustalla olisi kehitetty uusi muistityyppi ennen kuin GDDR6-muistit ovat saavuttaneet edes lopullisia nopeuksiaan, ja ilman että asiasta on valunut mitään tietoa muualle vain pari kuukautta ennen julkaisua, on erittäin pienet.Igorin mukaan Nvidia on käynnistänyt tutkinnan vuodosta. Pitää myös ilmeisesti varmana, että GDDR6X käytössä:
"All three expected launch cards will definitely be equipped with GDDR6X..."
![]()
Exclusive info about NVIDIA’s Ampere: 3 models, memory size, PCBs, an extremely expensive cooler for the FE and the search for the leak | igor´sLAB
Recently I had already posted some information about the new graphics card generation from NVIDIA and also processed it in the video, but I was still a little bit reserved concerning the currently…www.igorslab.de
Käytämme välttämättömiä evästeitä, jotta tämä sivusto toimisi, ja valinnaisia evästeitä käyttökokemuksesi parantamiseksi.