Follow along with the video below to see how to install our site as a web app on your home screen.
Huomio: This feature may not be available in some browsers.
Hyvää joulua!
Osallistu io-techin piparikakkutalokilpailuun 2025 Linkki osallistumisketjuun >>>
SER-huutokaupat hyväntekeväisyyteen käynnissä! Linkki huutokauppaan >>>
Tammikuun 6. sekä amd että nvidia ces eventit.Älkää nyt nostako odotuksia taas, kun hyvään pessimismiin oltiin jo turvallisesti asetuttu.
Monesko päivä se tapahtuma nyt sitten olikaan?
Juu vajaa 2 viikkoa niin tiedämme enemmän.Nyt on huhuja että 4080 -5% olisi oikeampi suorituskyky ja se aiempi TS tulos olisi mahdollisesti saatu ajureilla jotka rajoittaa tarkoituksella suorituskykyä (kelloja).
Saa nähdä mitä sieltä tulee...
Jos 300w menee gpu:lle, 50 w emolevylle, toiset 50w tuulettimille, ssd:ille, yms niin 250w on vielä varaa prossulle, eikä pelatessa mikään prossu vie noin paljoa.nykyisessä vain 650w(tosin laadukas mutta voi olla että kolmannen osapuolen 300w+ on liikaa sille).
Juu taitaa se riittää mutta kun haluan perustella itselleni miksi ehdottomasti tarvitsen uuden tietokoneen.Jos 300w menee gpu:lle, 50 w emolevylle, toiset 50w tuulettimille, ssd:ille, yms niin 250w on vielä varaa prossulle, eikä pelatessa mikään prossu vie noin paljoa.
Juu taitaa se riittää mutta kun haluan perustella itselleni miksi ehdottomasti tarvitsen uuden tietokoneen.
Ehkä kuitenkin järkevämpi vain ostaa se näytönohjain ja ostaa ja koota uusi kone sitten 2027-2028. Ryzen 5800x ihan hyvin riittää kuitenkin toistaiseksi omassa käytössä tarjoamaan riittävästi tehoa.

RX 9070 XT:ssä näyttäisi olevan 16 gigaa muistia, mitä tosin ilmeisesti huhuiltu jo pitkään. Se toki riittänee kohtuu hyvin, mutta jos tehot ovat oikeasti siellä RTX 4080 tuntumassa eli 7900 XT ja XTX välissä niin olisi vähän enemmänkin voinut olla. Mutta silti toki parempi kuin tuo RTX 5080...
En nyt ole täysin varma, mutta ymmärtääkseni myös 3 gigan piirejä on ja täten myös 24 gb olisi ollut vaihtoehto.256-bittisellä muistiväylällä seuraava järkevä(*) vaihtoehto muistimäärälle olisi ollut 32 GiB, joka taas olisi ollut totaalinen overkill ja nostanut kustannuksia selvästi.
Ja mikään ei estäne korttivalmistajia tekemästä malleja myös 32 gigan muistilla.
Että oikein järkevää laittaa normaalimalliin se 16 gigaa muistia.
Mikäli kortin muistiohjain/väyläarkkitehtuuri tukee tätä, teoriassa olisi mahdollista laittaa kortin eri muistikanaviin eri määrä muistia ja siten tehdä kortteja joissa muistin määrä ei ole suoraan muistiväylän leveyden kerrannainen, mutta tämä johtaisi muistikanavien epätasaiseen käyttöön ja sen kautta efektiivisen keskimääräisen hyödynnettävän muistikaistan selvään pudotukseen ja sen kautta suorituskyvyn selvään laskuun. nVidia teki joskus yhden piirin jossa tämä oli oletuskonfiguraatio (GTX970) ja siinä suorituskyky romahti jos viimeinen puoli gigaa muistia otettiin käyttöön, minkä takia ajurit välttelivät sen viimeisen puolen gigan käyttöä.
Maksettiin hinta "ylimääräisten" muistipiirien valmistuksesta mutta käytännössä jätettiin ne kuitenkin yleensä käyttämättä.
En nyt ole täysin varma, mutta ymmärtääkseni myös 3 gigan piirejä on ja täten myös 24 gb olisi ollut vaihtoehto.
3 GB muistipiirit löytyikin gddr7 ja noi radeonit käyttää gddr6 muistejaLPDDRää joo, muttei tietääkseni mitään GDDR-sarjan muisteja.
ja LPDDR:t on liian hitaita näyttiksiin.
3 GB muistipiirit löytyikin gddr7 ja noi radeonit käyttää gddr6 muisteja
Juu, tiedän, että muistimäärä seuraa tuosta muistiväylästä. Ajattelin vaan sitä, että jos nopeudet ovat siellä tasolla, millä pyörinee jopa 4K kohtuullisesti niin tuo 16 gigaa tuntuisi vähän gimpatulta. Varsinkin kun edellisessä sukupolvessa muistia oli enemmän vastaavilla tehoilla tarjolla AMD:llä. Jos taas tehot ovat lähempänä 7900 GRE:tä niin sitten ymmärtäisi paremmin. 32 gigaa taas olisi ollut ylilyöntiä tähän kategoriaan, kuten jo totesit. Olisiko seuraava muistiväylätaso sitten tullut liian kalliiksi?256-bittisellä muistiväylällä seuraava järkevä(*) vaihtoehto muistimäärälle olisi ollut 32 GiB, joka taas olisi ollut totaalinen overkill ja nostanut kustannuksia selvästi.
Ja mikään ei estäne korttivalmistajia tekemästä malleja myös 32 gigan muistilla.
Että oikein järkevää laittaa normaalimalliin se 16 gigaa muistia.
Mikäli kortin muistiohjain/väyläarkkitehtuuri tukee tätä, teoriassa olisi mahdollista laittaa kortin eri muistikanaviin eri määrä muistia ja siten tehdä kortteja joissa muistin määrä ei ole suoraan muistiväylän leveyden kerrannainen, mutta tämä johtaisi muistikanavien epätasaiseen käyttöön ja sen kautta efektiivisen keskimääräisen hyödynnettävän muistikaistan selvään pudotukseen ja sen kautta suorituskyvyn selvään laskuun. nVidia teki joskus yhden piirin jossa tämä oli oletuskonfiguraatio (GTX970) ja siinä suorituskyky romahti jos viimeinen puoli gigaa muistia otettiin käyttöön, minkä takia ajurit välttelivät sen viimeisen puolen gigan käyttöä.
Maksettiin hinta "ylimääräisten" muistipiirien valmistuksesta mutta käytännössä jätettiin ne kuitenkin yleensä käyttämättä.
Vaatii. Monissa peleissä ongelmat muistin kanssa alkavatkin, kun säteenseurannan kytkee päälle. Lisäksi DLSS Frame Generation Nvidian puolella lisää muistin kulutusta 1-1.5GB. AMD:n FSR 3:sta ja tulevasta 4:stä ei tietoa.Vaatikos muuten RT enemmän tuota näyttömuistia verrattuna perus rasterointiin?
Radeon Pro sarjassa ollut tyypillisesti clamshell muistit ja korkea hinta. Tällä hetkellä Radeon Pro W7800 32 Gt maksaa n. 3000€, mutta vähän mietityttää onko AMD:n järkeä tehdä vastaavaa Navi48 piiristä, jos RTX 5090 tarjoaa saman määrän muistia ja on muuten kaikin puolin selvästi tehokkaampi.
Juu, tiedän, että muistimäärä seuraa tuosta muistiväylästä. Ajattelin vaan sitä, että jos nopeudet ovat siellä tasolla, millä pyörinee jopa 4K kohtuullisesti niin tuo 16 gigaa tuntuisi vähän gimpatulta. Varsinkin kun edellisessä sukupolvessa muistia oli enemmän vastaavilla tehoilla tarjolla AMD:llä. Jos taas tehot ovat lähempänä 7900 GRE:tä niin sitten ymmärtäisi paremmin. 32 gigaa taas olisi ollut ylilyöntiä tähän kategoriaan, kuten jo totesit. Olisiko seuraava muistiväylätaso sitten tullut liian kalliiksi?
Vaatikos muuten RT enemmän tuota näyttömuistia verrattuna perus rasterointiin?
Ymmärtääkseni 4090:ssä ainoa keinotekoinen rajoite liittyy useamman GPU:n yhteistoimintaan eikä laskentatarkkuuksia koskevia rajoituksia ole.Onko se kaikin puolin tehokkaampi? Nvidia käsittääkseni poisti ammattilaissoftien kiihdytystuen Quadroja halvemmista korteista. Aiemmin oli Titanit, joilla pro-softatkin toimivat täydellä vauhdilla. En nyt ole kyllä viimeisimpiä 3d-mallinnussoftien benchmarkkeja lukenut, että paljonko RTX-sarjan kortit häviävät Quadroille ja onko AMD:lla ollut saumaa iskeä siihen väliin. Toki ne käyttäjät jotka ajavat ammattilaissoftia kotonaan omalla eikä työnantajan hankkimalla pro-raudalla ovat hyvin hyvin pieni markkinasegmentti, että ei taida juuri olla merkitystä.
Toki nuo hybridimoodit jossa säteenjäljitystä käytetään siihen että generoidaan dynaamisesti rasteroinnille noita valo-/varjomäppitekstuureita mutta lopullinen rendaus tehdään rasteroinnilla voi viedä enemmän muistia kuin rasterointi yksinkertaisella valaistuksella.
Quadroja/tesloja/... ei varsinaisesti enää ole olemassa. Pro kortit nimetty tyyliin rtx 6000 ada.Onko se kaikin puolin tehokkaampi? Nvidia käsittääkseni poisti ammattilaissoftien kiihdytystuen Quadroja halvemmista korteista. Aiemmin oli Titanit, joilla pro-softatkin toimivat täydellä vauhdilla. En nyt ole kyllä viimeisimpiä 3d-mallinnussoftien benchmarkkeja lukenut, että paljonko RTX-sarjan kortit häviävät Quadroille ja onko AMD:lla ollut saumaa iskeä siihen väliin. Toki ne käyttäjät jotka ajavat ammattilaissoftia kotonaan omalla eikä työnantajan hankkimalla pro-raudalla ovat hyvin hyvin pieni markkinasegmentti, että ei taida juuri olla merkitystä.
Juuri noin. @hkultala avasi hyvin teoriaa, mutta käytäntö on valitettavasti vielä sellainen, että RT-pelaaminen vaatii hieman enemmän videomuistia.Käytännössä tämän hetken peleissä (subjektiivisesti arvioituna) yhtä hieno valaistus puhtaasti rasterilla vie yleensä noin gigan verran vähemmän muistia verrattuna siihen että RT-efektit on laitettu päälle.
Tästä syystä monet teoriassa hyvää RT-suorituskykyä tarjoavat nVidian kortit erityisesti 3000-sarjasta eivät käytännössä tarjoa hyvää RT-suorituskykyä kun 8Gb näyttömuisti tulee täyteen jopa 1080p resoluutiolla uusissa peleissä, mikäli RT asetukset ruuvataan tasolle, jossa ne voittavat rasteroinnin
Quadroja/tesloja/... ei varsinaisesti enää ole olemassa. Pro kortit nimetty tyyliin rtx 6000 ada.
Ainoa hidaste minkä tiedän varmuudella pelikorteissa olevan on että tensoriytimien nopeus on keinotekoisesti hidastettu fp16 ja fp32 formaatteja käytettäessä. Tällä ohjataan niitä jotka aikoo opettaa/fine tunettaa neuroverkkoja ostamaan pro korttia. Inferenssikäytössä tuolla ei ole merkitystä.
3d softissa kuten blender, autocad tai omniverse tuskin on mitään hidastuksia enää käytössä renderöintinopeuteen liittyen tai ei ole ainakaan mun silmiin osunut. Studio ajuriahan nvidia kyllä tarjoaa pelikorteillekin. Studio ajuri sama kuin peliajuri, mutta enemmän testausta esim. photoshop/davinci resolve liittyen ja päivitysväli harvempi. Taitaa riittää pelikorttien rajallinen muistimäärä ohjaamaan käyttäjiä ostamaan pro korttia jos aikoo vaikka tehdasta suunnitella omniversellä.
En mä saa tuosta kyllä oikein mitään irti. Pikainen googlettelu niin ei löydy mitään megavalitusta, että jotain muuta kuin tensoriytimien fp16/fp32moodi gimpattu 4090:ssa versus ada rtx 6000. UE5, blender, davinci resolve yms. niin 4090:en vie tän generaation nopeinta pro korttia(ada rtx 6000). 4090:ssa isompi kellotaajuus. Mutta tämä lienee taas ihan väärä ketju nvidian pro vs. pelikortti pohtimiseen. $1,599 RTX 4090 Beats $6,800 RTX 6000 Ada in Content CreationEn tiedä mitä solidworks ja etenkin siemens NX käyttää, mutta tälläinen vanha kuva 3090 julkaisusta löytyi.
![]()
3090 ja titan rtx:ssä on saman verran muistia.En mä saa tuosta kyllä oikein mitään irti. Kysyin googlelta niin keinoäly kertoo tällaista 4090 vs. ada rtx 6000
katso liitettä 1451702
Ja sit löytyy jotain random tomshardware yms. missä on jotain pro softia vertailtu ja 4090:en vie ada rtx 6000:sta. 4090:ssa isompi kellotaajuus, 6000:ssa isompi muisti
$1,599 RTX 4090 Beats $6,800 RTX 6000 Ada in Content Creation
Higher performance for 76% lesswww.tomshardware.com
En tiedä mitä solidworks ja etenkin siemens NX käyttää, mutta tälläinen vanha kuva 3090 julkaisusta löytyi.
![]()
On noissa ajureissa rajoituksia. esim. NVIDIA:n puolella P2P-tuki vaatii Linuxilla epävirallisen patsin käyttämistä, ja oletan että Windows-puolella se ei toimi ollenkaan.3d softissa kuten blender, autocad tai omniverse tuskin on mitään hidastuksia enää käytössä renderöintinopeuteen liittyen tai ei ole ainakaan mun silmiin osunut.
Eiköhän se ole alle 600 dollaria jenkeissä(jos Amd aggressiivinen hinnoitelussa niin alle 500 dollaria) ja Suomi hinta sitten mitä vain.Alkaa vähän kuume nousemaan. Unelmissa olis 4080 suorituskyky 600-650 euron hintaan, mutta se taitaa olla vähän liian paljon vaadittu.
Noissa vaihtoehdoissa mulle varmaan se takuu merkitsee eniten. Ostan kortin 5 vuoden välein suunnilleen ja en halua olla koko ajan pelko persiissä että hajoaako se sillä aikaa. Muuten mulle riittäis kyllä varmaan 7800xt:kin.Eiköhän se ole alle 600 dollaria jenkeissä(jos Amd aggressiivinen hinnoitelussa niin alle 500 dollaria) ja Suomi hinta sitten mitä vain.
Itse miettinyt että käytetty RX 7900 xt voisi olla aika kova vaihtoehto, sitä jo saanut 650 eurolla ja jopa allekin käsittääkseni tällä foorumilla, tosin sitten pitäisi miettiä kumpaa arvostaa enemmän, huhuttua parempaa av1 jossa b frame tuki joka parantaa kuvanlaatua sekä energiatehokkuutta ja parempaa rt suorituskykyä(itse en välitä vielä asiasta) sekä että on uusi ja on takuu vai 4gb enemmän vramia ja mahdollisesti hiukan halvempi(käytettynä).
Ainakin videoenkoodauksen osalta on tapahtunut kehitystä, kun RDNA 4:lle on luvattu AV1-formaatin osalta B-frame-tukea
Suorituskykyyn tuskin vaikutusta mutta voisi parantaa kuvanlaatua jos käyttää langattomasti tai langallisilla VR laseilla joissa ei ole hdmi/displayport tukea. Paljonko niin en osaa sanoa, pitäisi varmaan odotella jonkun EposVox tubettajan arviota miten enkoodauksessa B-frame tuki parantaa kuvanlaatua striimauksessa(joka tarkoittaa miten tietokoneelta VR laseille striimaus näyttää).Onko tällä mitään merkitystä mahdolliselle VR-suorituskyvylle? Tai onko ylipäätänsä ollut mitään huhuja VR-suorituskyvystä, jossa AMD on laahannut pahasti Nvidian perässä.
Vai onko ongelma vain softapuolella?
Kiitos vastauksesta. Tosiaan tuo striimaus taisi ollakin se ongelma esim. Quest 3:n kanssa, mistä olin lukenut netissä, jonka vuoksi ihmiset suosittelevat Nvidian tuotteita.Suorituskykyyn tuskin vaikutusta mutta voisi parantaa kuvanlaatua jos käyttää langattomasti tai langallisilla VR laseilla joissa ei ole hdmi/displayport tukea. Paljonko niin en osaa sanoa, pitäisi varmaan odotella jonkun EposVox tubettajan arviota miten enkoodauksessa B-frame tuki parantaa kuvanlaatua striimauksessa(joka tarkoittaa miten tietokoneelta VR laseille striimaus näyttää).
Käsittääkseni Esim RX 7xxx sarjassa Amd oli alussa isoja suorituskykyongelmia ajurien kanssa VR peleissä mutta nyt pitäisi toimia suurimmassa osassa pelejä kuten kuuluu.
On sitten yksittäisiä pelejä joissa Amd näytönohjain ei oikein toimi kunnolla, en nyt muista mistä yksi käyttäjä tällä foorumilla puhui että ei toimi kunnolla vieläkään Amd näytönohjaimella.
Voi olla tai sitten olematta että ajurien täytyy parantua jotta toimii 99 prosentissa VR pelejä kunnolla sitten kun uusi RX 9xxx sarja tulee.
Käyttääkö kukaan DxO Photolab ohjelmaa AMD kortilla?. Itsellä nyt 3080 ja harkinnassa AMD kortti mutta tuo ei saisi kyllä hidastua.
Käytössä on (6800xt), verrattuna intelin integroidulla olevaan kannettavaan export on huomattavasti nopeampi. Ei se tietty kunnon vertailuarvoa anna nvidiaan suhteutettuna.
Tänne olikin kerätty infoa:
Deep primellä näemä 3090 ja 6900xt on aika tasoissa, toisin versiot (4-6) eivät ole ihan uusimpia.
Mitäs sitä illan eventiltä voi odottaa? Tuleeko pelkkä lista siitä mitä kortti on syönyt ja hinta vai saadaanko tietää testituloksia tms? En ole ikinä tälläistä tapahtumaa seurannut. Nyt oon odottanu jo pitkään, kun se kortti pitäis hommata.
Kiitos paljon. Pari kyssäriä vielä : Saavatko jotkut nettivideoiden tekijät noita kortteja etukäteen testejä varten vai pitääkö pelikohtaisia tuloksia odotella siihen asti kunnes ovat kortit kaupoissa? Jos nyt alkuun tulee yks malli ja yks versio, niin milloinkohan saataisiin muitten firmojen korteista infoa vertailua varten?
Kovasti kiinnostaa 9070xt:n ja 9070:sen erot suorituskyvyissä ja hinnoissa.
Käytämme välttämättömiä evästeitä, jotta tämä sivusto toimisi, ja valinnaisia evästeitä käyttökokemuksesi parantamiseksi.