NVIDIA-spekulaatioketju (Blackwell ja tulevat sukupolvet)

Jaa-a, nyt näyttää siltä, että julkaisussa on vain Quadro 8000, joka on pieni pettymys itselle, kun odotin pelinäytönohjaimia..
Miksi ihmeessä Nvidia olisi julkaissut pelinäyttiksen nyt? Ei siinä olisi mitään järkeä, kun niillä on jo kovimmat näyttikset. Ne odottaa mitä AMD lyö tiskiin ja sen jälkeen julkaisevat perään vähän paremmat mallit jos(kun) pystyvät. Ei olisi mitään järkeä niiden lähteä antamaan kilpailuetua AMD:lle ja julkaista ennen AMD:tä korttejaan.
 
Herrajumala miten iso piiri sieltä tule TSMC:n 7nm nodella.


826 neliömilliä ?!

Montakohan tuhatta dollaria per täysin toimiva piiri tsmc joutuu laskuttamaan :D
 
Jäi vielä täysin mysteeriksi Amperen RT kyvyt/uudistukset. A100:ssa ei ole RT coreja (disabloitu?).

Oiskohan sitten siggraphissa heinäkuussa RT:stä jotain.
 
Voi hyvin olla, ettei Amperessa edes ole RT ytimiä. Ainakaan tässä versiossa. Voi myös olla, että ne kuluttajalle suunnatut kortit eivät tule koskaan perustumaan Ampereen.

Ellei nahkatakki toisin sanonut. Ja itseasiassa taisikin sanoa, että kaikki tulevat perustumaan Ampereen.
 
Voi hyvin olla, ettei Amperessa edes ole RT ytimiä. Ainakaan tässä versiossa. Voi myös olla, että ne kuluttajalle suunnatut kortit eivät tule koskaan perustumaan Ampereen.
Kyllä näyttäis tulevan Ampere myös Geforceihin:

 
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Tuossa vielä tuo A100:n julkaisuvideo. Mielenkiintoinen myös siten että ensimmäinen uudella prosessilla julkastu piiri on kaikista suurin.
 
Kaikki yli noiden listattujen lukemien on korttivalmistajien omia ylikellotuksia, ei mitään piirien virallisia kelloja. Ja miksi sitten boost clock, eikä base clock? No siksi kun se TPU:n väite koski boost-kelloja.

Kokoajan on ollut puhetta siitä miten piirin koko vaikuttaa niihin kelloihin. Ei miten CUDA-ydinten määrä vaikuttaa kelloihin.

Ja luonnollisesti kun korteista on useampaa mallia samalla piirillä, pitää saman kokoisista piireistä vetää keskiarvoina se tieto yhteen eikä vaan cherrypickailla niitä mitkä sattuu parhaiten omaa näkemystä tukemaan.

Eli, lopeta maalitolppien siirtely ja hyväksy se tosiasia että keskimäärin suuremmilla piireillä ne kellot on pienempiä. Ja ne on vielä suhteessa samaa luokkaa pienempiä kuin tuo aiempi 2,2 GHz vs 2,5 GHz epäily.
Eipä vaan ole suuremmilla piireillä ne kellot pienempiä. 2060S/2070S artikkeli.
Olisi jos ne kellot laitettaisiin esim. 90% maksimista tai muuten sen mukaan millaisiin kelloihin GPU pystyy. Mutta paremmista (kalliimmista) malleista otetaan enemmän irti ja halpamalleja tahallisesti rajoitetaan enemmän. (tämä ei koske TITAN malleja, ne ovat yleensä vähän pienemmillä kelloilla jos oikein muistan).
Nvidian boost kellot ei kerro mitään todellisista kelloista pelatessa ja sama kehitys on nähtävissä niin punaisella puolella kuin prosessoreissakin up to kelloina. TPU:n artikkelia lukematta väitän ettei siellä oikeasti uskota että GA102 boost kellot olisi 2,2GHz yläpuolella vaan ne toteutuneet kellot olisi siellä. Ja siinä on iso ero jos mennään samalla suhteella kuin nykyisissä.
Myös nVidian 2080 Ti FE, ( joka on käytännössä oc-malli, eli pyytää kelloja yli ns. referenssi boost taajuuden. 1545MHz/1635MHz ) menee yli 1800MHz pelatessa. Mikä kortti sitten noudattaa niitä virallisia kelloja?
Kuten sanoin jo niin olet oikeassa siinä että piirin koko tai oikeastaan käytössä oleva ydinmäärä vaikuttaa niihin kelloihin mitä saadaan, mitä enemmän ytimiä lämmittämässä niin sitä vähemmän kellotaajuutta. Ja syynä on lähinnä lämpöongelmat jotka pahenee kun viivanleveys pienenee tai ytimien määrä kasvaa.
Käytännössä se vaan ei näy kaupan valikoimassa koska jonnet saattaisi ihmetellä kun halvemmassa on enemmän MHz tai GHz, jopa enemmän GB joissakin erikoismalleissa.
 
Jaa-a, nyt näyttää siltä, että julkaisussa on vain Quadro 8000, joka on pieni pettymys itselle, kun odotin pelinäytönohjaimia..
Ei ollut mitään Quadrojakaan vaan pelkkä A100 ja siihen perustuvat DGX ja HGX. (eikä "Quadro 8000" vastaava tule olemaan tuohon perustuva muutoinkaan)

Tuon A100:n kellotaajuus on ~1,41 GHz.
edit: eikun eipäs olekaan, hetki pieni pitää tarkistaa laskut :D
edit2: onpas. 19,5 TFLOPS 6192 ytimellä teki ainakin nopealla laskulla ~1,41 GHz.
 
Eipä vaan ole suuremmilla piireillä ne kellot pienempiä. 2060S/2070S artikkeli.
Olisi jos ne kellot laitettaisiin esim. 90% maksimista tai muuten sen mukaan millaisiin kelloihin GPU pystyy. Mutta paremmista (kalliimmista) malleista otetaan enemmän irti ja halpamalleja tahallisesti rajoitetaan enemmän. (tämä ei koske TITAN malleja, ne ovat yleensä vähän pienemmillä kelloilla jos oikein muistan).
Nvidian boost kellot ei kerro mitään todellisista kelloista pelatessa ja sama kehitys on nähtävissä niin punaisella puolella kuin prosessoreissakin up to kelloina. TPU:n artikkelia lukematta väitän ettei siellä oikeasti uskota että GA102 boost kellot olisi 2,2GHz yläpuolella vaan ne toteutuneet kellot olisi siellä. Ja siinä on iso ero jos mennään samalla suhteella kuin nykyisissä.
Myös nVidian 2080 Ti FE, ( joka on käytännössä oc-malli, eli pyytää kelloja yli ns. referenssi boost taajuuden. 1545MHz/1635MHz ) menee yli 1800MHz pelatessa. Mikä kortti sitten noudattaa niitä virallisia kelloja?
Kuten sanoin jo niin olet oikeassa siinä että piirin koko tai oikeastaan käytössä oleva ydinmäärä vaikuttaa niihin kelloihin mitä saadaan, mitä enemmän ytimiä lämmittämässä niin sitä vähemmän kellotaajuutta. Ja syynä on lähinnä lämpöongelmat jotka pahenee kun viivanleveys pienenee tai ytimien määrä kasvaa.
Käytännössä se vaan ei näy kaupan valikoimassa koska jonnet saattaisi ihmetellä kun halvemmassa on enemmän MHz tai GHz, jopa enemmän GB joissakin erikoismalleissa.

Niin no kellot ei tietenkään noudattele mitään lakeja jos niitä keinotekoisesti rajoitetaan. Tämä nyt ei varmaan tule yllätyksenä kenellekään?

Ja kun tarkastellaan noita suurimpia (normi tallaajille tarkoitettuja) piirejä XX102 ja XX104, mille nuo kiistakapulana olleet 2,2 GHz ja 2,5 GHz oli heitetty, niin niitä nyt ei keinotekoisesti rajoiteta, vaan pelataan juuri niillä piirikoosta aiheutuvilla säännöillä epätäydellisyyksien ja lämmöntuoton kanssa.

Jos keskustellaan piirien kelloista, niin ei voi yhtäkkiä vaan vaihtaa puheenaihetta taajuuksiin ylikellotettuina. Sehän olisikin siistiä kun olisi jotain luotettavaa tietoa eri piirien oikeista toteutuvista ylikellotuksista. Valitettavasti sellaisia ei vaan ikinä tulla saamaan, koska piirejä binnataan niin monessa eri vaiheessa, julkisuuteen raportoidaan lähinnä vain ne kovaa kulkevat tapaukset, yms yms.
 
Joo-o, nyt kyllä kävi niin, että olin käsittänyt asiat ihan väärin ja odotin liikoja. Katsotaan syksyllä uudestaan. Lompakkoni olisi ollut valmis ja GTX 1080 odottanut päivitystä.
 
Alkaa näyttää tää GV100:kin aika tuhnulta kyllä tohon A100 verrattuna. Onneksi on kuitenkin jo maksanut itsensä takaisin niin ei ees harmita.
 
Pelien yleisimmin käyttämä FP32 on 24% parempi mitä V100 piirillä. Vastaavasti jos kertoo shaderytimet kellotaajudella ja vertaa sitä V100 piiriin, niin tulee myös tuo 24% ero. Sillä puolella ei vaikuttaisi olevan IPC parannusta.

FP16 laskuteho on tuplaantunut, jos korjataan tuo core/kello ero pois. Se on kova uudistus. Uudet pelit käyttää sitä jonkin verran, joten se alkaa jo näkyä pelisuorituskyvyssä.

Edelleen jos katsoo FP32 suorituskykyä, niin TDP kasvoi 33% ja teho 24%. Noin jos katsoo videocardzin speksejä. Ainakin noiden perusteella Amperessa olisi todellakin laitettu ihan kaikki paukut konesalien kaipaamaan laskentakykyyn, joka on polttanut 7nm parannuksen. 2.5x transistoreita ja nuo konesalien kaipaamat laskentatavat on aika brutaaleja.

Eiköhän kuluttajaversio Amperesta ole aika rajusti leikattu versio tuosta arkkitehtuurista, ei tuota pelipuolen kannalta turhaa laskentakykyä kannata mukana kuljettaa. Tekevät piireistä kalliita tehoihin nähden ja ovat haitaksi perf/w vertailussa.

Edit: Olihan sitä päivitysuutistakin tullut:

"Both Ampere Tesla and Ampere GeForce will have different configurations. Tesla is likely to focus on compute oriented calculations (FP8/FP16 and FP64), while gaming series can benefit from faster FP16/32 cores. Jensen confirmed that the architecture will remain the same, but GPU configurations will be different for both markets. "
 
Viimeksi muokattu:
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Tuossa vielä tuo A100:n julkaisuvideo. Mielenkiintoinen myös siten että ensimmäinen uudella prosessilla julkastu piiri on kaikista suurin.


Eipä se nyt niin yllätys ole kun datacenterit on kyltymättömiä laskentatehon kanssa ja Voltasta on jo aikaa. Lisäksi toi 7nm node on kyllä jo kypsynyt ja käsittääkseni sillä on saannot erinomaiset.

edit2: onpas. 19,5 TFLOPS 6192 ytimellä teki ainakin nopealla laskulla ~1,41 GHz.

19500/2/6192= ~1,57GHz vai mujistanko jotain väärin?

EDIT: Jaah kaotikilla oli väärin cuda määrä, se on 6912 jolloin tulee toi ~1,41GHz
 
Viimeksi muokattu:
Turhaan laskeskelette, ihan suoraan kertovat, että 1410 MHz :)


Ja TDP 400W...
Juu en ollut tuota vielä bongannut tuossa vaiheessa, mutta laskin oikein kuitenkin vaikka viestissä typotin 6912 > 6192 :D
 
Niin no kellot ei tietenkään noudattele mitään lakeja jos niitä keinotekoisesti rajoitetaan. Tämä nyt ei varmaan tule yllätyksenä kenellekään?

Ja kun tarkastellaan noita suurimpia (normi tallaajille tarkoitettuja) piirejä XX102 ja XX104, mille nuo kiistakapulana olleet 2,2 GHz ja 2,5 GHz oli heitetty, niin niitä nyt ei keinotekoisesti rajoiteta, vaan pelataan juuri niillä piirikoosta aiheutuvilla säännöillä epätäydellisyyksien ja lämmöntuoton kanssa.

Jos keskustellaan piirien kelloista, niin ei voi yhtäkkiä vaan vaihtaa puheenaihetta taajuuksiin ylikellotettuina. Sehän olisikin siistiä kun olisi jotain luotettavaa tietoa eri piirien oikeista toteutuvista ylikellotuksista. Valitettavasti sellaisia ei vaan ikinä tulla saamaan, koska piirejä binnataan niin monessa eri vaiheessa, julkisuuteen raportoidaan lähinnä vain ne kovaa kulkevat tapaukset, yms yms.
Ok. Kiitos muuten asiallisista vastauksista. Se ei aina ole itsestään selvää edes tällä foorumilla.
Itse asiaan palatakseni uskon edelleen että kellotaajuudet tulee nousemaan sinne 2.2GHz mutta ei halvemmilla mennä yli huippumallien tälläkään kertaa.
 
Mielenkiintoista huomata, että nVidian A100-piirejä käyttävässä DGX A100 -kokoonpanossa käytetään 2x AMD EPYC 7742-piirejä (2x64 core). Ei siis esim. Intelin prosessoreita.
Kokoonpano on aika vakuuttava:
- 2x AMD EPYC 7742 64-core/128-threads
- 8x NVIDIA A100 GPU, joissa yhteensä 320 GB HBM2E-muistia (8x 40 GB, 6144-bittinen muistiväylä)
- 8-port Mellanox ConnectX 200 Gbps InfiniBand NIC
- 1 TB of hexadeca-channel (16-channel) DDR4 memory (tässä on kyllä laskettu kahden EPYCin 8-kanavaiset muistiväylät yhteen)
- 2x 1.92 TB NVMe gen 4.0 SSDs
- 15 TB of U.2 NVMe drives (4x 3.84 TB units)
- Hinta: USD $199,000.

 
Vuodentakainen lottorivi osui aika hyvin:

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Tämmöinen tuli vastaan, luotettavuudesta en tiedä:

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.



Poimintoja:
  • NVidia yrittää kompensoida ahtaaksi käymässä olevaa muistikaistaa käyttämällä tensoriytimiä VRAMin häviöttömään pakkaukseen


Häviöllisen pakkauksen olisin uskonut, häviötöntä en.

Häviötön pakkaus on sellaista kombinatoriikkaa ja puuhakua, jossa tensoriytimillä ei tee yhtään mitään.

Häviöllisessä pakkauksessa niillä sen sijaan olisi voinut olla käyttöä.

Voi olla, että huhiissa on perää mutta tuossa on vaan joku väärinymmärys ja kyse todellisuudesta häviöllisestä, mutta joku markkinamiespeelo taas vaan vähän liikaa hypettänyt jotain "melkein häviötöntä" tjsp .
 
Siellä saattaa olla tulossa toinenkin laskentasiru, Drive L5 "RoboTaxissa" näkyy kaksi GPU:ta, missä on 4 stackia HBM:ää per GPU, eli ei ole A100. Tai sitten siellä on nopeimman pelisirun kaverina HBM-muistia.
 
Turhaan laskeskelette, ihan suoraan kertovat, että 1410 MHz :)


Ja TDP 400W...

Jensen Huangin uunin sisällä oli kypsynyt saunan kiuas.

Kivasti jaksoi Huang taas hehkuttaa RTX:ää, ''we did it 10 years earlier than anybody thought'', vaikka pähkinänkuoressa Huangin ''RTX ON 2018'' hehkutusten jälkeen tuki edelleen kourallisessa pelejä, ja lähinnä muutamissa tuo oikeasti merkittävää lisäarvoa. Joo onhan tuo monella tapaa mullistava ominaisuus ja tekeminen varmasti aivan saakelin haastavaa, mutta tuo markkinointihehkutus aina särähtää korvaan. Hieno tulevaisuus tuossa RTX:ssä varmasti on. Ja DLSS 2.0 ottanut myös aika isoja harppauksia.
 
Jensen Huangin uunin sisällä oli kypsynyt saunan kiuas.

Kivasti jaksoi Huang taas hehkuttaa RTX:ää, ''we did it 10 years earlier than anybody thought'', vaikka pähkinänkuoressa Huangin ''RTX ON 2018'' hehkutusten jälkeen tuki edelleen kourallisessa pelejä, ja lähinnä muutamissa tuo oikeasti merkittävää lisäarvoa. Joo onhan tuo monella tapaa mullistava ominaisuus ja tekeminen varmasti aivan saakelin haastavaa, mutta tuo markkinointihehkutus aina särähtää korvaan. Hieno tulevaisuus tuossa RTX:ssä varmasti on. Ja DLSS 2.0 ottanut myös aika isoja harppauksia.
Nvidian raytracing toimii kuitenkin tällä hetkellä paremmin kuin muiden valmistajien ;) Mielestäni ei voi haukkua huonoksi kun ei ole mihin verrata.
 
Jensen Huangin uunin sisällä oli kypsynyt saunan kiuas.

Kivasti jaksoi Huang taas hehkuttaa RTX:ää, ''we did it 10 years earlier than anybody thought'', vaikka pähkinänkuoressa Huangin ''RTX ON 2018'' hehkutusten jälkeen tuki edelleen kourallisessa pelejä, ja lähinnä muutamissa tuo oikeasti merkittävää lisäarvoa. Joo onhan tuo monella tapaa mullistava ominaisuus ja tekeminen varmasti aivan saakelin haastavaa, mutta tuo markkinointihehkutus aina särähtää korvaan. Hieno tulevaisuus tuossa RTX:ssä varmasti on. Ja DLSS 2.0 ottanut myös aika isoja harppauksia.
Nvidian raytracing toimii kuitenkin tällä hetkellä paremmin kuin muiden valmistajien ;) Mielestäni ei voi haukkua huonoksi kun ei ole mihin verrata.
Kätevästi se Jensen (ja täälläkin suurin osa) unohtaa PowerVR:n säteenkiihdytysraudan mikä on ollut tarjolla jo vuosikaudet ja kiihdyttää enemmän askelia koko prosessista NVIDIAn RT-ytimiin verrattuna
 
Kätevästi se Jensen (ja täälläkin suurin osa) unohtaa PowerVR:n säteenkiihdytysraudan mikä on ollut tarjolla jo vuosikaudet ja kiihdyttää enemmän askelia koko prosessista NVIDIAn RT-ytimiin verrattuna

Miten hyvin tuo PowerVR:n rauta pyörittää esim. MineCraft RTX:ää tai Quake 2:sta?
 
Miten hyvin tuo PowerVR:n rauta pyörittää esim. MineCraft RTX:ää tai Quake 2:sta?
Ei se pyöritä, tietenkään. Eikä noita sen enempää ollut olemassa silloin kun PowerVR noita yritti ekaa kertaa puskea.
 
Olette varmaan nähneet jo UE5 enginen testivideon?

Reaaliajassa PS5 pyörittänyt sen 2560x1440 resolla, PC:llä kuulemma 2070S jaksaa saman demon reaaliajassa renderöidä.

Huomasitteko kuinka kaunista, varjot ja valaistuksetkin?

Pointtini on ettei ko. demo edes käytä yhtään Ray Tracingiä eli säteenseurantaa.
 
Ei se pyöritä, tietenkään. Eikä noita sen enempää ollut olemassa silloin kun PowerVR noita yritti ekaa kertaa puskea.
Eipä noita power vr:n tuotoksia ole ollut PC:lla saatavilla, joten kyse on ollut teoreettisesta, ei kiinnostavasta tuotteesta.

Nvidia loi mahdollisuuden ominaisuuden käyttöön PC puolella. Jos Nvidian RTX kortteja ei olisi ollut, niin eipä olisi kovinkaan mutkikkaita RT demoja / pelejä ulkona.

Ensin tarvitaan aina rauta, sitten voidaan suunnitella (ja käyttää) ohjelmistoa..
 
Olette varmaan nähneet jo UE5 enginen testivideon?

Reaaliajassa PS5 pyörittänyt sen 2560x1440 resolla, PC:llä kuulemma 2070S jaksaa saman demon reaaliajassa renderöidä.

Huomasitteko kuinka kaunista, varjot ja valaistuksetkin?

Pointtini on ettei ko. demo edes käytä yhtään Ray Tracingiä eli säteenseurantaa.

Niin 2070s jaksaa sen 30FPS pyörittää siis, koska ko. demo oli 30FPS. Yksikään 2000 sarjan korrti ei jaksasisi sitä pyörittää 60 FPS. Todennäköisesti vaatisi jonkun 3080 kortin, että päästäisiin tuissa demossa sonne 60FPS lukemiin.

Jos 3000 sarjan RTX rauta on niin tehokasta, kun povataan ja luvataan, niin ko. korteilla tuo Global Illuminationin laskenta voisi olla jopa tehokkaampaa hoitaa Ray Tracingilla tuon lumenin sijaan, tuossa UE5:ssa.
 
Viimeksi muokattu:
Olette varmaan nähneet jo UE5 enginen testivideon?

Reaaliajassa PS5 pyörittänyt sen 2560x1440 resolla, PC:llä kuulemma 2070S jaksaa saman demon reaaliajassa renderöidä.

Huomasitteko kuinka kaunista, varjot ja valaistuksetkin?

Pointtini on ettei ko. demo edes käytä yhtään Ray Tracingiä eli säteenseurantaa.
Eiköhän tuo demo ole lähinnä maistiaisia mitä on tulossa joskus 5-10 vuoden sisällä. Epäilen että edes PS5:n rauta jaksaa pyörittää mitään tuollaista järkevillä FPS:lla. Demossakin oli "jännästi" fysikaat melko minimissä. Ai miksiköhän. :)
 
Eiköhän tuo demo ole lähinnä maistiaisia mitä on tulossa joskus 5-10 vuoden sisällä. Epäilen että edes PS5:n rauta jaksaa pyörittää mitään tuollaista järkevillä FPS:lla. Demossakin oli "jännästi" fysikaat melko minimissä. Ai miksiköhän. :)

Joo. Tässä on pari vuosikymmentä kaikenlaisia demoja nähty, aika harvoin se varsinainen gameplay on sitten kuitenkaan vastannut niitä upeita demoja. Eli uskotaan vasta kun nähdään. :smile:
 
Kätevästi se Jensen (ja täälläkin suurin osa) unohtaa PowerVR:n säteenkiihdytysraudan mikä on ollut tarjolla jo vuosikaudet ja kiihdyttää enemmän askelia koko prosessista NVIDIAn RT-ytimiin verrattuna
Tähän väliin kevennys, "PowerVR:n säteenkiihdytysrauta mikä on ollut tarjolla jo vuosikaudet kiihdyttää enemmän", on toki hauska mutta aikuisten oikeasti yrityksen säteenseurannan esittelyä ja paria messuvideota lukuun ottamatta powervr:n raudalla reaaliaikaisia pelejä ei ole pyöritelty. Markkinoilla on tällä hetkellä tasan yksi valmistaja jonka näytönohjaimilla homma toimii (joko raudalla kiihdytettynä tai softaversiona), ehkä amd (ja intel) pääsee powervr:n tasolle lähitulevaisuudessa eli gpu:n rt-rauta "kiihdyttää enemmän askelia koko prosessista NVIDIAn RT-ytimiin verrattuna".
 
Enemmänkin tuo demo vaikuttaa demolta massiivisesta supernopean SSDn käytöstä. PC:llä kysyisin "niin, paljonko tarvittiin keskusmuistia että 2070S ajoi tuon?"

En yllättyisi jos vastaus olis 64GB ja PCIE-väylä keskusmuistiin oli kovilla :D
 
Jos 3000 sarjan RTX rauta on niin tehokasta, kun povataan ja luvataan, niin ko. korteilla tuo Global Illuminationin laskenta voisi olla jopa tehokkaampaa hoitaa Ray Tracingilla tuon lumenin sijaan, tuossa UE5:ssa.
Jep, eikä sen RT-raudan tarvitse välttämättä edes erityisen tehokasta olla jos rautakiihdytettyä RTGI:täkin kehitetään edelleen. Nvidialla kehitteillä oleva RTXGI toteuttaa GI:n hyvin eritavalla kuin ensimmäiset RTGI-ratkaisut. Eräänlainen hybridiratkaisu jossa RT-raudan käyttöä voidaan skaalata tehokkaasti GPU:n suorituskyvyn mukaan ja RT-laskenta on näyttöresoluutiosta riippumaton.

Myös RTXGI on tulossa Unreal Engineen.
 
Nvidian raytracing toimii kuitenkin tällä hetkellä paremmin kuin muiden valmistajien ;) Mielestäni ei voi haukkua huonoksi kun ei ole mihin verrata.
Nvidian toteutus on paras mitä on saatavilla eikä se poista sitä, että tuhnuhan se vielä silti on. Kovat odotukset kuitenkin 3000-sarjalle tuon RT-väännön moninkertaistamisesta. Mikään +50% ei riitä.
 
Nvidian toteutus on paras mitä on saatavilla eikä se poista sitä, että tuhnuhan se vielä silti on. Kovat odotukset kuitenkin 3000-sarjalle tuon RT-väännön moninkertaistamisesta. Mikään +50% ei riitä.
Hyvinkin moneen RT kikkaan tuntuu olevan oikein riittävä.
 
Nvidian toteutus on paras mitä on saatavilla eikä se poista sitä, että tuhnuhan se vielä silti on. Kovat odotukset kuitenkin 3000-sarjalle tuon RT-väännön moninkertaistamisesta. Mikään +50% ei riitä.
Miten voit sanoa sitä tuhnuksi kun ei ole mitään mihin verrata? Olisiko se yhä tuhnu jos AMD:llakin olisi raytracing, joka aiheuttaa yhtä ison haitan fps:ään tai jopa suuremman?

Kyllä, raytracing on siltä kantilta huono, että se laskee fps:n usein liian matalalle, mutta se on silti parempi kuin muiden valmistajien tuotokset joita ei ole. Useampi vaihtoehto ei ole miinus.
 
Miten voit sanoa sitä tuhnuksi kun ei ole mitään mihin verrata? Olisiko se yhä tuhnu jos AMD:llakin olisi raytracing, joka aiheuttaa yhtä ison haitan fps:ään tai jopa suuremman?

Kyllä, raytracing on siltä kantilta huono, että se laskee fps:n usein liian matalalle, mutta se on silti parempi kuin muiden valmistajien tuotokset joita ei ole. Useampi vaihtoehto ei ole miinus.
Ei sillä ole väliä miten AMD asian tekee Nvidialla on menty jo monta vuotta ja seuraavakin on nvidia ellei jotain ihmeitä tapahdu, mutta vastaus kysymykseen on: kyllä olisi.

Tuhnun siitä tekee nimenomaan tuo raju fps droppi, eli ei riitä vielä kunnolla tuo RT-vääntö. Siksi odotan seuraavaan sukupolveen merkittävää boostia tuolle osa-alueelle.
 
Ei sillä ole väliä miten AMD asian tekee Nvidialla on menty jo monta vuotta ja seuraavakin on nvidia ellei jotain ihmeitä tapahdu, mutta vastaus kysymykseen on: kyllä olisi.

Tuhnun siitä tekee nimenomaan tuo raju fps droppi, eli ei riitä vielä kunnolla tuo RT-vääntö. Siksi odotan seuraavaan sukupolveen merkittävää boostia tuolle osa-alueelle.
Minäkin odotan huomattavaa lisäystä RT-tehoihin. Mutta mieleatäni RT on nytkin ihan ookoo. Nvidian käyttäjällä on kyky valita käyttääkö RT:llä vai ilman. Molemmissa hyvät ja huonot puolensa. RT on joka tapauksessa plussa oli se huonosti tai hyvin toimiva. Ymmärrän mitä haet takaa ja olen siinä kanssasi samaa mieltä.
 
DLSS 2.0:n kanssa RT on käyttökelpoinen niissä peleissä joissa tuki sille on.
 
RT on tulevaisuutta ja tulee paranemaan ja yleistymään.
RT on muutenkin valinnainen optio sitä tukevissa peleissä eli voi käyttää tai jättää käyttämättä.

Ehkä joskus vielä tulee tilanne että lukee joidenkin pelien vaatimuksissa RT ohjain pakollinen.
 
Sitä odotellessa, että perinteisen näytönohjaimen rinnalla on RT-kortti.

Kohtuullisen helppo toi olisi toteuttaa, kun vetää molemmista korteista piuhat näyttöön, ja kun esim. peli tunnistuu RT:nä, saa näyttö käskyn vaihtaa inputia normikortilta RT:lle, ja alkaa säteet kimpoilemaan.
Korttien toisiinsa ketjuttaminen tuskin onnistuu ilman ongelmia, niin tämä ajatus on varmaan melkoisia erektioita aiheuttanut jo Nvidian konttorissa. Myydään kaikille kaksi saatanan kallista korttia yhden sijaan, ja vielä ihan perusteltuna, toisin kuin perus SLI.
 
Sitä odotellessa, että perinteisen näytönohjaimen rinnalla on RT-kortti.

Kohtuullisen helppo toi olisi toteuttaa, kun vetää molemmista korteista piuhat näyttöön, ja kun esim. peli tunnistuu RT:nä, saa näyttö käskyn vaihtaa inputia normikortilta RT:lle, ja alkaa säteet kimpoilemaan.
Korttien toisiinsa ketjuttaminen tuskin onnistuu ilman ongelmia, niin tämä ajatus on varmaan melkoisia erektioita aiheuttanut jo Nvidian konttorissa. Myydään kaikille kaksi saatanan kallista korttia yhden sijaan, ja vielä ihan perusteltuna, toisin kuin perus SLI.

Ei siitä RT kortista tarttis yhtään pihaa vetää minnekään kun se kuva voidaan ajaa ulos ihna mistä tahansa portista, vaikka integroidun portista jos halutaan.

Mutta kaukaiselta mielestäni näyttää sellainen skenaario että erillisiä RT kortteja alkaisi pukkaamaan markkinoille. Sellainen aikakausi on jo kertaalleen eletty että koneessa piti olla 2D ja 3D kortti erikseen eikä sitä tuskin kukaan muistele kaiholla ja toivo moisten aikojen paluuta.
 
Pelien yleisimmin käyttämä FP32 on 24% parempi mitä V100 piirillä. Vastaavasti jos kertoo shaderytimet kellotaajudella ja vertaa sitä V100 piiriin, niin tulee myös tuo 24% ero. Sillä puolella ei vaikuttaisi olevan IPC parannusta.

Nämä luvut on teoreettisia flopseja.

Tosilmaailman IPC-parannukset perustuvat tyypillisesti siihen, että piiri idlaa vähemmän ja pääsee todellisella koodilla lähemmäs sitä teoreettista
eivätkä ne tällaisissa teoreettisissa luvuissa suoraa näy yhtään.

Näiden teoreettisten flopsien peruteella ei siis voi todellisesta IPCstä suoraan päätellä mitään. Epäsuorasti kylläkin, tästä alempana:

FP16 laskuteho on tuplaantunut, jos korjataan tuo core/kello ero pois. Se on kova uudistus. Uudet pelit käyttää sitä jonkin verran, joten se alkaa jo näkyä pelisuorituskyvyssä.

Tämä ihmetyttää aika paljon, kun mitään selitystä tälle ei mainita.

Oma veikkaukseni on, että kokonaislukulaskuyksikköön on lisätty tuki Fp16-liukuluvuille; Voltassa ja Turinigssahan on siis rinnakkain kokonaislukyksikkö ja liukulukyksikkö, joita voi käyttää yhtä aikaa.

Se, että kokonaislukyksikköön olisi lisätty fp16-laskut ei lähellekään tuplaisi sitä tosimaailman fp16-suorituskykyä, koska tällöin sen (tuplanopean) fp16-laskennan kanssa rinnakkain ei voitaisi tehdä "ilmaiseksi" niitä looppien indeksien laskemisia, muistiaccessien osoitelaskuja, looppien ehtojen tarkastuksia, jne. jotka voltassa ja turingissa tai muilla tarkkuuksilla laskettaessa voidaan tehdä rinnalla "ilmaiseksi".

Ja kaikki tosimaailman koodi sisältää huomattavan määrän näitä kaikkia.

Eli käytännössä tämä tarkoittaisi sitä että se "tosimaailman" fp16-laskennan suorituskyky pikemminkin keskimäärin ehkä vain n. 1.4-kertaistuisi (mutta tämä parannus olisi hyvin riippuvainen siitä, millaista koodia sillä ajetaan)

Edelleen jos katsoo FP32 suorituskykyä, niin TDP kasvoi 33% ja teho 24%. Noin jos katsoo videocardzin speksejä. Ainakin noiden perusteella Amperessa olisi todellakin laitettu ihan kaikki paukut konesalien kaipaamaan laskentakykyyn, joka on polttanut 7nm parannuksen. 2.5x transistoreita ja nuo konesalien kaipaamat laskentatavat on aika brutaaleja.

Eiköhän kuluttajaversio Amperesta ole aika rajusti leikattu versio tuosta arkkitehtuurista, ei tuota pelipuolen kannalta turhaa laskentakykyä kannata mukana kuljettaa. Tekevät piireistä kalliita tehoihin nähden ja ovat haitaksi perf/w vertailussa.

Sitä piiriä ei todennaköisesti saa kuluttamaan läheskään täyttä TDPtään pelkillä shader-ytimillä tehtävillä FTP32-laskuitoimituksilla, vaan se vaatii tensoriytimien käyttöä.

Jolloin näiden lukujen vertailussa ei ole mitään mieltä. Ne kellot on asetettu sen verran alas, että se sähköntuotto pysyy sen TDPn sisällä silloin, kun niitä (aiempaa järeämpiä) tensoriytimiä kuormitetaan täysillä.
 
Sitä odotellessa, että perinteisen näytönohjaimen rinnalla on RT-kortti.

Kohtuullisen helppo toi olisi toteuttaa, kun vetää molemmista korteista piuhat näyttöön, ja kun esim. peli tunnistuu RT:nä, saa näyttö käskyn vaihtaa inputia normikortilta RT:lle, ja alkaa säteet kimpoilemaan.
Korttien toisiinsa ketjuttaminen tuskin onnistuu ilman ongelmia, niin tämä ajatus on varmaan melkoisia erektioita aiheuttanut jo Nvidian konttorissa. Myydään kaikille kaksi saatanan kallista korttia yhden sijaan, ja vielä ihan perusteltuna, toisin kuin perus SLI.

Ei olisi mitään järkeä.

Näyttisten pinta-alasta ylivoimaisesti suurimman osan vie shader-ytimet, ja myös huomattavan osuuden TMUt, ja näitä molempia tarvitaan aivan yhtä lailla sekä rasterointia että säteenjäljitystä tehdessä. Tai oikeastaan näitä tarvitaan ehkä jopa enemmän säteenjäljitystä tehdessä.

Näiden lisäksi säteenjäljitystä tehdessä tarvitaan sitten törmäystarkastusyksiköitä, rasterointia tehdessä taas tarvitaan mm. z-tarkastusyksiköitä sekä rautaa joka laskee, mitkä pikselit osuu kolmion sisälle. (Lisäksi säteenjäljityksen puunrakennusta varten voisi olla oma pieni ratakiihdyttimiensä, mutta vielä ei ole)

Se, että tehtäisiin erilliset säteenjäljitys- ja rasterointikortit tarkoittaisi vain sitä, että olisi aivan turhaan shader-ytimet ja TMUt kahteen kertaan kahdella eri kortilla.

Samoin sekä säteenjäljitys että rasterointi molemmat tarvitsevat huomattavan määrän muistia ja muistikaistaa, eroja tulee ainoastaan siitä, että säteenjäljitys tarvitsee enemmän lukukaistaa ja hyvin vähän kirjoituskaistaa, mutta millään nykyisillä muistiväylillä tätä eroa ei kuitenkaan voida hyödyntää.

Paljon järkevämpää tehdä yksi isompi piiri, jossa on samalla piirillä sekä shaderit ja TMUt että molempien eri renderöintitapojen vaatimat rautalohkot. Tällöin samalla pii-pinta-alalla, samalla rahalla niitä shadereita ja TMUita saadaan paljon enemmän ja myös niistä molempien renderöintitapojen erikoisraudoista voidaan tehdä isommat kun on varaa tehdä paljon isompi piiri

Ja tulee paljon halvemmaksi kun se iso muisti riittäävllä muistikaistalla tarvii olla vain kertaalleen => voidaan laittaa nopeampi muistiväylä ja enemmän sitä muistia.

Käytännössä samalla hinnalla molemmat tekevästä yhdistelmäpiiristä saadaan helposti luokkaa 1.5x tehokkaampi molempiin renderöintitapoihin, kuin kahdesta erillisestä eri renderöintitapaan erikoistuneesta piiristä saataisiin.
 
RT on tulevaisuutta ja tulee paranemaan ja yleistymään.

Kyllä.

RT on muutenkin valinnainen optio sitä tukevissa peleissä eli voi käyttää tai jättää käyttämättä.

Ei ole.

Minecraftin RT-versio piirtää kaiken säteenjäljityksellä, siinä ei ole mitään valinnaista jos sen exen käynnistää.

Kuinka moneen kertaan tällaisia perusasioita pitää sanoa:

Säteenjäljitys ei ole mikään "bullet point" joka liimataan päälle muiden bullet pointtien seuraksi

Se on täysin erilainen tapa renderöidä grafiikkaa joka korvaa kymmeniä vuosia käytetyn rasteroinnin.

Nyt mennään vaan siirtymäaikaa, jonka aikana monet pelit sisältää hybridimoodeja joissa tehdään sekä rasterointia että säteenjäljitystä. Tämä on lähinnä vaan siirtymäajan kummajaisuus, vaikka tämä tuleekin jatkumaan monen vuoden ajan (kunnes tarpeeksi suurella osalla pelaajista on rautaa, jolla säteenjäljitys on tarpeeksi nopeaa)

Ehkä joskus vielä tulee tilanne että lukee joidenkin pelien vaatimuksissa RT ohjain pakollinen.

Säteenjäljitystä voi aina tehdä softalla näyttiksen shadereissa (tai jopa CPUlla).

Vaikka peli piirtää kaiken säteenjäljityksellä, ei ole mitään (teknisestä näkökulmasta) järkevää syytä vaatia sen rautakiihdytystä. (epäjärkeviä syitä on sitten mm. se, että 1) säteenjäljitysrautaa tekevä firma maksaa pelikehittäjille ison tukun rahaa käteen siitä, että softalla tehty säteenjäljitys keinotekoisesti estetään tai 2) pelätään valitusta siitä, että peli pyörii huonosti vanhalla raudalla, ja varman päälle estetään kokonaan sen pyöriminen raudalla, jolla se pyörisi huonosti)

Sen sijaan on järkevää suositella sitä rt-rautaa, mutta sallia silti toimiminen softaimplementaatiolla, esim todeta, että "jos korttisi ei sisällä säteenjäljitysrautaa, ei kannata yrittää pelata tätä peliä yli 720x480-resoluutiota".

(Ja eiköhän sen tahmaavan postimerkkikuvan katseleminen ole jopa parempaa mainosta mennä ostamaan se RT-rauta kuin se, että peli jää ostamatta kun se ei nykyraudalla toimi)
 
Viimeksi muokattu:
Nvidian raytracing toimii kuitenkin tällä hetkellä paremmin kuin muiden valmistajien ;) Mielestäni ei voi haukkua huonoksi kun ei ole mihin verrata.

Joo onhan Nvidia tässä muihin verrattuna ''aikaansa edellä'' GPU-puolella, mutta ei se sitä tarkoita etteikö RT:tä saisi kritisoida. Ja kehuja jaan siitä, että Nvidia tässä on aikaansa edellä, koska se nopeuttaa RT:n tulemista meille kuluttajille. Just nyt se ei vielä tuo mitään lisäarvoa monille kuluttajille, mutta kyllä tällä varmasti kirkas tulevaisuus on. Ja markkinointi kannatti varmasti aloittaa jo 2018 vaikka tuki oli mitä oli, mutta toistaiseksi RT on tainnut häikäistä enemmän korttien hintoja kuin kuluttajien silmiä peleissä ;)

Miten voit sanoa sitä tuhnuksi kun ei ole mitään mihin verrata? Olisiko se yhä tuhnu jos AMD:llakin olisi raytracing, joka aiheuttaa yhtä ison haitan fps:ään tai jopa suuremman?

Siten sitä voi sanoa tuhnuksi, että tuki on aivan kourallisessa pelejä, ja suorituskyky niissä on aika tuhnua. Silmäkarkki -mielessä upealtahan esim. Minecraftin heijastukset näytti, sitä ei varmasti kukaan kiistä.

Olisiko se yhä tuhnu jos AMD:llakin olisi raytracing, joka aiheuttaa yhtä ison haitan fps:ään tai jopa suuremman?

Kyllä olisi. Ja jos AMD sieltä pukkaa tuhnua RDNA2:sessa ulos, niin ihan samat tekstit voin kirjoittaa. Itse en ole mikään ''AMD for life'', vaan molempien kortteja ollut, ja kolmesta viimeisimmästä kaksi Nvidialta.
 
Tämä ihmetyttää aika paljon, kun mitään selitystä tälle ei mainita.

Oma veikkaukseni on, että kokonaislukulaskuyksikköön on lisätty tuki Fp16-liukuluvuille; Voltassa ja Turinigssahan on siis rinnakkain kokonaislukyksikkö ja liukulukyksikkö, joita voi käyttää yhtä aikaa.

Se, että kokonaislukyksikköön olisi lisätty fp16-laskut ei lähellekään tuplaisi sitä tosimaailman fp16-suorituskykyä, koska tällöin sen (tuplanopean) fp16-laskennan kanssa rinnakkain ei voitaisi tehdä "ilmaiseksi" niitä looppien indeksien laskemisia, muistiaccessien osoitelaskuja, looppien ehtojen tarkastuksia, jne. jotka voltassa ja turingissa tai muilla tarkkuuksilla laskettaessa voidaan tehdä rinnalla "ilmaiseksi".

Tuo oli oikeastaan kuluttajan kannalta toinen mielenkiintoinen asia tuossa Ampere julkaisussa Toinen oli se kuittaus, että Geforce/Quatro pohjautuu samaan arkkitehtuuriin eri konfiguraatiolla. AMD veti pitkään yksi arkkitehtuuuri, joka meni ihan sellaisenaan peli, ammatti ja laskentakäyttöön.

Volta ei sellaisenaan tullut kuluttajille, ellei Titania lasketa. Jäi vähän hämäräksi aikoiko ne eriyttää datapuolen pelikäytöstä, vai mistä oli kyse. Nyt se ainakin ratkesi: Touring Nvidia käyttää samaa arkkitehtuuria eri konfiguraatioilla ja AMD vaikuttaa siirtyvän erillisiin arkkitehtuureihin (Aracturus/RDNA).

Välistä esiin nousi aina huhu, että Ampere onkin vain datakeskuksiin ja Hopper tulee kuluttajamarkkinoille ja sitten se taas jäi ampere kaikkialle huhujen jalkoihin.
 

Statistiikka

Viestiketjuista
295 820
Viestejä
5 053 139
Jäsenet
80 987
Uusin jäsen
Heepinpoika

Hinta.fi

Back
Ylös Bottom