AMD-spekulaatioketju (RDNA:n ja CDNA:n tulevat sukupolvet)

Älkää nyt nostako odotuksia taas, kun hyvään pessimismiin oltiin jo turvallisesti asetuttu.

Monesko päivä se tapahtuma nyt sitten olikaan?
 
Kyllä AMD osaa pilata tämänkin julkaisun liian korkealla hinnalla.
Eiköhän taas mennä Nvidian vastaava -10% kaavalla ja ollaan edelleen jäljessä säteenseurantasuorituskyvyssä jne...
 
Onko RDNA4n erillispiirien valmistustekniikasta muuten varmaa tietoa?

N3/N3E/N3P tarjoisi hiukan lisää kelloa tai energiatehokkuutta edelliseen sukupolveen nähden, mutta tekisi SRAMista (välimuisteista) kalliimpia.
 
Nyt on huhuja että 4080 -5% olisi oikeampi suorituskyky ja se aiempi TS tulos olisi mahdollisesti saatu ajureilla jotka rajoittaa tarkoituksella suorituskykyä (kelloja).

Saa nähdä mitä sieltä tulee...
 
Nyt on huhuja että 4080 -5% olisi oikeampi suorituskyky ja se aiempi TS tulos olisi mahdollisesti saatu ajureilla jotka rajoittaa tarkoituksella suorituskykyä (kelloja).

Saa nähdä mitä sieltä tulee...
Juu vajaa 2 viikkoa niin tiedämme enemmän.

Jos kellot on 300-400 mhz alhaisemmat ja huhujen mukaan Amd oma referenssi vetää vähemmän virtaa kuin kolmannen osapuolen jotka mahdollisesti kellottuvat korkeammalle niin helposti voi siinä näyttää että tuhnu olisi tulossa(tuhnu siinä mielessä kun jos olisi hiukan nopeampi kuin Rx 7900 gre jota saanut alle 600 eurolla tai se alempi malli joka kilpailisi rx 7800 xt kanssa jota saanut 450 eurolla).

Jos tulisi rx 7900 xt-Rtx 4080 tasoinen ja hinta sopiva ottaen huomioon vaihtoehdot Rtx 5070 ti, vanhat rtx 4070 ti super/4080, Rx 7900 xt/xtx niin saattaisi ostohousut nousta jalkaan, tosin nyt tullut mieleen haluanko sittenkään koota uutta konetta johon ostaisin 850w tai 1000w virtalähteen kun nykyisessä vain 650w(tosin laadukas mutta voi olla että kolmannen osapuolen 300w+ on liikaa sille).
 
nykyisessä vain 650w(tosin laadukas mutta voi olla että kolmannen osapuolen 300w+ on liikaa sille).
Jos 300w menee gpu:lle, 50 w emolevylle, toiset 50w tuulettimille, ssd:ille, yms niin 250w on vielä varaa prossulle, eikä pelatessa mikään prossu vie noin paljoa.
 
Jos 300w menee gpu:lle, 50 w emolevylle, toiset 50w tuulettimille, ssd:ille, yms niin 250w on vielä varaa prossulle, eikä pelatessa mikään prossu vie noin paljoa.
Juu taitaa se riittää mutta kun haluan perustella itselleni miksi ehdottomasti tarvitsen uuden tietokoneen.

Ehkä kuitenkin järkevämpi vain ostaa se näytönohjain ja ostaa ja koota uusi kone sitten 2027-2028. Ryzen 5800x ihan hyvin riittää kuitenkin toistaiseksi omassa käytössä tarjoamaan riittävästi tehoa.
 
Oon ostamassa uutta korttia lähinnä vr-pelaamisen takia ja jos muistelen niin amd:llä on ollu sen kanssa aina vähän lapsentauteja uusien mallien kanssa. Mitä luulette onkohan niin tälläkin kertaa?

Ja mitä luulette olevan 9070xt:n ja 9070:n suurin ero? Jos nimittäin se on ray tracingissä, niin sitten mulle riittää ihan hyvin se halvempi malli.
 
Juu taitaa se riittää mutta kun haluan perustella itselleni miksi ehdottomasti tarvitsen uuden tietokoneen.

Ehkä kuitenkin järkevämpi vain ostaa se näytönohjain ja ostaa ja koota uusi kone sitten 2027-2028. Ryzen 5800x ihan hyvin riittää kuitenkin toistaiseksi omassa käytössä tarjoamaan riittävästi tehoa.

Ja vaikkei virtalähde riittäisikään (tosin pitäisi riittää), mikään ei estä vaihtamasta pelkästään sitä ja näyttistä. :whistling:
 
RX 9070 XT:ssä näyttäisi olevan 16 gigaa muistia, mitä tosin ilmeisesti huhuiltu jo pitkään. Se toki riittänee kohtuu hyvin, mutta jos tehot ovat oikeasti siellä RTX 4080 tuntumassa eli 7900 XT ja XTX välissä niin olisi vähän enemmänkin voinut olla. Mutta silti toki parempi kuin tuo RTX 5080...


256-bittisellä muistiväylällä seuraava järkevä(*) vaihtoehto muistimäärälle olisi ollut 32 GiB, joka taas olisi ollut totaalinen overkill ja nostanut kustannuksia selvästi.

Ja mikään ei estäne korttivalmistajia tekemästä malleja myös 32 gigan muistilla.

Että oikein järkevää laittaa normaalimalliin se 16 gigaa muistia.

Mikäli kortin muistiohjain/väyläarkkitehtuuri tukee tätä, teoriassa olisi mahdollista laittaa kortin eri muistikanaviin eri määrä muistia ja siten tehdä kortteja joissa muistin määrä ei ole suoraan muistiväylän leveyden kerrannainen, mutta tämä johtaisi muistikanavien epätasaiseen käyttöön ja sen kautta efektiivisen keskimääräisen hyödynnettävän muistikaistan selvään pudotukseen ja sen kautta suorituskyvyn selvään laskuun. nVidia teki joskus yhden piirin jossa tämä oli oletuskonfiguraatio (GTX970) ja siinä suorituskyky romahti jos viimeinen puoli gigaa muistia otettiin käyttöön, minkä takia ajurit välttelivät sen viimeisen puolen gigan käyttöä.

Maksettiin hinta "ylimääräisten" muistipiirien valmistuksesta mutta käytännössä jätettiin ne kuitenkin yleensä käyttämättä.
 
Viimeksi muokattu:
256-bittisellä muistiväylällä seuraava järkevä(*) vaihtoehto muistimäärälle olisi ollut 32 GiB, joka taas olisi ollut totaalinen overkill ja nostanut kustannuksia selvästi.

Ja mikään ei estäne korttivalmistajia tekemästä malleja myös 32 gigan muistilla.

Että oikein järkevää laittaa normaalimalliin se 16 gigaa muistia.

Mikäli kortin muistiohjain/väyläarkkitehtuuri tukee tätä, teoriassa olisi mahdollista laittaa kortin eri muistikanaviin eri määrä muistia ja siten tehdä kortteja joissa muistin määrä ei ole suoraan muistiväylän leveyden kerrannainen, mutta tämä johtaisi muistikanavien epätasaiseen käyttöön ja sen kautta efektiivisen keskimääräisen hyödynnettävän muistikaistan selvään pudotukseen ja sen kautta suorituskyvyn selvään laskuun. nVidia teki joskus yhden piirin jossa tämä oli oletuskonfiguraatio (GTX970) ja siinä suorituskyky romahti jos viimeinen puoli gigaa muistia otettiin käyttöön, minkä takia ajurit välttelivät sen viimeisen puolen gigan käyttöä.

Maksettiin hinta "ylimääräisten" muistipiirien valmistuksesta mutta käytännössä jätettiin ne kuitenkin yleensä käyttämättä.
En nyt ole täysin varma, mutta ymmärtääkseni myös 3 gigan piirejä on ja täten myös 24 gb olisi ollut vaihtoehto.
 
En nyt ole täysin varma, mutta ymmärtääkseni myös 3 gigan piirejä on ja täten myös 24 gb olisi ollut vaihtoehto.

LPDDRää joo, muttei tietääkseni mitään GDDR-sarjan muisteja. GDDR6:sta

ja LPDDR:t on liian hitaita näyttiksiin.

edit: Näköjään tulossa myös GDDR7ssa, mutta nämä kortit käyttää vielä GDDR6sta.
 
Viimeksi muokattu:
256-bittisellä muistiväylällä seuraava järkevä(*) vaihtoehto muistimäärälle olisi ollut 32 GiB, joka taas olisi ollut totaalinen overkill ja nostanut kustannuksia selvästi.

Ja mikään ei estäne korttivalmistajia tekemästä malleja myös 32 gigan muistilla.

Että oikein järkevää laittaa normaalimalliin se 16 gigaa muistia.

Mikäli kortin muistiohjain/väyläarkkitehtuuri tukee tätä, teoriassa olisi mahdollista laittaa kortin eri muistikanaviin eri määrä muistia ja siten tehdä kortteja joissa muistin määrä ei ole suoraan muistiväylän leveyden kerrannainen, mutta tämä johtaisi muistikanavien epätasaiseen käyttöön ja sen kautta efektiivisen keskimääräisen hyödynnettävän muistikaistan selvään pudotukseen ja sen kautta suorituskyvyn selvään laskuun. nVidia teki joskus yhden piirin jossa tämä oli oletuskonfiguraatio (GTX970) ja siinä suorituskyky romahti jos viimeinen puoli gigaa muistia otettiin käyttöön, minkä takia ajurit välttelivät sen viimeisen puolen gigan käyttöä.

Maksettiin hinta "ylimääräisten" muistipiirien valmistuksesta mutta käytännössä jätettiin ne kuitenkin yleensä käyttämättä.
Juu, tiedän, että muistimäärä seuraa tuosta muistiväylästä. Ajattelin vaan sitä, että jos nopeudet ovat siellä tasolla, millä pyörinee jopa 4K kohtuullisesti niin tuo 16 gigaa tuntuisi vähän gimpatulta. Varsinkin kun edellisessä sukupolvessa muistia oli enemmän vastaavilla tehoilla tarjolla AMD:llä. Jos taas tehot ovat lähempänä 7900 GRE:tä niin sitten ymmärtäisi paremmin. 32 gigaa taas olisi ollut ylilyöntiä tähän kategoriaan, kuten jo totesit. Olisiko seuraava muistiväylätaso sitten tullut liian kalliiksi?

Vaatikos muuten RT enemmän tuota näyttömuistia verrattuna perus rasterointiin?
 
Radeon Pro sarjassa ollut tyypillisesti clamshell muistit ja korkea hinta. Tällä hetkellä Radeon Pro W7800 32 Gt maksaa n. 3000€, mutta vähän mietityttää onko AMD:n järkeä tehdä vastaavaa Navi48 piiristä, jos RTX 5090 tarjoaa saman määrän muistia ja on muuten kaikin puolin selvästi tehokkaampi.
 
Vaatikos muuten RT enemmän tuota näyttömuistia verrattuna perus rasterointiin?
Vaatii. Monissa peleissä ongelmat muistin kanssa alkavatkin, kun säteenseurannan kytkee päälle. Lisäksi DLSS Frame Generation Nvidian puolella lisää muistin kulutusta 1-1.5GB. AMD:n FSR 3:sta ja tulevasta 4:stä ei tietoa.

Hinnasta ja tehosta ei vielä tiedä tarkkaan, mutta itse en näe tulevan RX 9070 XT:n 16GB-muistia ongelmaksi. 1440p-pelailussa 16GB riittää kuitenkin vielä hyvin. RTX 5080:n kohdalla puolestaan 16GB on mielestäni liian vähän, kun kyseessä tulee todennäköisesti olemaan paljon tehokkaampi ja kalliimpi kortti. Paukkuja riittänee hyvin suuremmallekin resoluutiolle, enkä välttämättä ostaisi sitä enää perus 1440p-näytölle.
 
Radeon Pro sarjassa ollut tyypillisesti clamshell muistit ja korkea hinta. Tällä hetkellä Radeon Pro W7800 32 Gt maksaa n. 3000€, mutta vähän mietityttää onko AMD:n järkeä tehdä vastaavaa Navi48 piiristä, jos RTX 5090 tarjoaa saman määrän muistia ja on muuten kaikin puolin selvästi tehokkaampi.

Onko se kaikin puolin tehokkaampi? Nvidia käsittääkseni poisti ammattilaissoftien kiihdytystuen Quadroja halvemmista korteista. Aiemmin oli Titanit, joilla pro-softatkin toimivat täydellä vauhdilla. En nyt ole kyllä viimeisimpiä 3d-mallinnussoftien benchmarkkeja lukenut, että paljonko RTX-sarjan kortit häviävät Quadroille ja onko AMD:lla ollut saumaa iskeä siihen väliin. Toki ne käyttäjät jotka ajavat ammattilaissoftia kotonaan omalla eikä työnantajan hankkimalla pro-raudalla ovat hyvin hyvin pieni markkinasegmentti, että ei taida juuri olla merkitystä.
 
Juu, tiedän, että muistimäärä seuraa tuosta muistiväylästä. Ajattelin vaan sitä, että jos nopeudet ovat siellä tasolla, millä pyörinee jopa 4K kohtuullisesti niin tuo 16 gigaa tuntuisi vähän gimpatulta. Varsinkin kun edellisessä sukupolvessa muistia oli enemmän vastaavilla tehoilla tarjolla AMD:llä. Jos taas tehot ovat lähempänä 7900 GRE:tä niin sitten ymmärtäisi paremmin. 32 gigaa taas olisi ollut ylilyöntiä tähän kategoriaan, kuten jo totesit. Olisiko seuraava muistiväylätaso sitten tullut liian kalliiksi?

Vaatikos muuten RT enemmän tuota näyttömuistia verrattuna perus rasterointiin?

Ei vaadi.

Molemmat vaatii normaaleihin tekstuureihin ihan saman verran muistia, mutta säteenjäljityksen kanssa tarvii vähemmän kaiken maailman valo- ja varjomäppitekstuureita joita rasteroinnin kanssa käytetään valaistuksen feikkaamiseen.

Säteenjäljitys tarvii enemmän muistia lähinnä BVH-puuhun mutta siinä puhutaan kymmenistä megatavuista, ei gigatavuista.

Toki nuo hybridimoodit jossa säteenjäljitystä käytetään siihen että generoidaan dynaamisesti rasteroinnille noita valo-/varjomäppitekstuureita mutta lopullinen rendaus tehdään rasteroinnilla voi viedä enemmän muistia kuin rasterointi yksinkertaisella valaistuksella.
 
Onko se kaikin puolin tehokkaampi? Nvidia käsittääkseni poisti ammattilaissoftien kiihdytystuen Quadroja halvemmista korteista. Aiemmin oli Titanit, joilla pro-softatkin toimivat täydellä vauhdilla. En nyt ole kyllä viimeisimpiä 3d-mallinnussoftien benchmarkkeja lukenut, että paljonko RTX-sarjan kortit häviävät Quadroille ja onko AMD:lla ollut saumaa iskeä siihen väliin. Toki ne käyttäjät jotka ajavat ammattilaissoftia kotonaan omalla eikä työnantajan hankkimalla pro-raudalla ovat hyvin hyvin pieni markkinasegmentti, että ei taida juuri olla merkitystä.
Ymmärtääkseni 4090:ssä ainoa keinotekoinen rajoite liittyy useamman GPU:n yhteistoimintaan eikä laskentatarkkuuksia koskevia rajoituksia ole.
 
Toki nuo hybridimoodit jossa säteenjäljitystä käytetään siihen että generoidaan dynaamisesti rasteroinnille noita valo-/varjomäppitekstuureita mutta lopullinen rendaus tehdään rasteroinnilla voi viedä enemmän muistia kuin rasterointi yksinkertaisella valaistuksella.

Käytännössä tämän hetken peleissä (subjektiivisesti arvioituna) yhtä hieno valaistus puhtaasti rasterilla vie yleensä noin gigan verran vähemmän muistia verrattuna siihen että RT-efektit on laitettu päälle.

Tästä syystä monet teoriassa hyvää RT-suorituskykyä tarjoavat nVidian kortit erityisesti 3000-sarjasta eivät käytännössä tarjoa hyvää RT-suorituskykyä kun 8Gb näyttömuisti tulee täyteen jopa 1080p resoluutiolla uusissa peleissä, mikäli RT asetukset ruuvataan tasolle, jossa ne voittavat rasteroinnin
 
Onko se kaikin puolin tehokkaampi? Nvidia käsittääkseni poisti ammattilaissoftien kiihdytystuen Quadroja halvemmista korteista. Aiemmin oli Titanit, joilla pro-softatkin toimivat täydellä vauhdilla. En nyt ole kyllä viimeisimpiä 3d-mallinnussoftien benchmarkkeja lukenut, että paljonko RTX-sarjan kortit häviävät Quadroille ja onko AMD:lla ollut saumaa iskeä siihen väliin. Toki ne käyttäjät jotka ajavat ammattilaissoftia kotonaan omalla eikä työnantajan hankkimalla pro-raudalla ovat hyvin hyvin pieni markkinasegmentti, että ei taida juuri olla merkitystä.
Quadroja/tesloja/... ei varsinaisesti enää ole olemassa. Pro kortit nimetty tyyliin rtx 6000 ada.

Ainoa hidaste minkä tiedän varmuudella pelikorteissa olevan on että tensoriytimien nopeus on keinotekoisesti hidastettu fp16 ja fp32 formaatteja käytettäessä. Tällä ohjataan niitä jotka aikoo opettaa/fine tunettaa neuroverkkoja ostamaan pro korttia. Inferenssikäytössä tuolla ei ole merkitystä.

3d softissa kuten blender, autocad tai omniverse tuskin on mitään hidastuksia enää käytössä renderöintinopeuteen liittyen tai ei ole ainakaan mun silmiin osunut. Studio ajuriahan nvidia kyllä tarjoaa pelikorteillekin. Studio ajuri sama kuin peliajuri, mutta enemmän testausta esim. photoshop/davinci resolve liittyen ja päivitysväli harvempi. Taitaa riittää pelikorttien rajallinen muistimäärä ohjaamaan käyttäjiä ostamaan pro korttia jos aikoo vaikka tehdasta suunnitella omniversellä.
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Käytännössä tämän hetken peleissä (subjektiivisesti arvioituna) yhtä hieno valaistus puhtaasti rasterilla vie yleensä noin gigan verran vähemmän muistia verrattuna siihen että RT-efektit on laitettu päälle.

Tästä syystä monet teoriassa hyvää RT-suorituskykyä tarjoavat nVidian kortit erityisesti 3000-sarjasta eivät käytännössä tarjoa hyvää RT-suorituskykyä kun 8Gb näyttömuisti tulee täyteen jopa 1080p resoluutiolla uusissa peleissä, mikäli RT asetukset ruuvataan tasolle, jossa ne voittavat rasteroinnin
Juuri noin. @hkultala avasi hyvin teoriaa, mutta käytäntö on valitettavasti vielä sellainen, että RT-pelaaminen vaatii hieman enemmän videomuistia.

TPU:sta löytyi viimeisen puolen vuoden ajalta viisi pelitestiä, joissa oli RT.

-yhdessä pelissä RT ei juuri syönyt muistia
-kahdessa se vei noin 1 - 2 Gt
-yhdessä meni ylimääräistä RT ja RR (Ray Reconstruction) päällä 3,8 Gt@2160p
-yhdessä pelissä RT + RR haukkasi 4 - 5 Gt

Säteenseurantaa kaipailevan kannattaa ottaa muistia pykälän verran enemmän kuin muiden vastaavalla resoluutiolla pelaavien.


@Heseman

Screenshot_2024-12-31-00-31-29-06_40deb401b9ffe8e1df2f1cc5ba480b12.jpg


Screenshot_2024-12-31-00-31-52-86_40deb401b9ffe8e1df2f1cc5ba480b12.jpg


Screenshot_2024-12-31-00-32-14-47_40deb401b9ffe8e1df2f1cc5ba480b12.jpg


Screenshot_2024-12-31-00-32-28-86_40deb401b9ffe8e1df2f1cc5ba480b12.jpg


Screenshot_2024-12-31-00-32-40-92_40deb401b9ffe8e1df2f1cc5ba480b12.jpg
 
Viimeksi muokattu:
Quadroja/tesloja/... ei varsinaisesti enää ole olemassa. Pro kortit nimetty tyyliin rtx 6000 ada.

Ainoa hidaste minkä tiedän varmuudella pelikorteissa olevan on että tensoriytimien nopeus on keinotekoisesti hidastettu fp16 ja fp32 formaatteja käytettäessä. Tällä ohjataan niitä jotka aikoo opettaa/fine tunettaa neuroverkkoja ostamaan pro korttia. Inferenssikäytössä tuolla ei ole merkitystä.

3d softissa kuten blender, autocad tai omniverse tuskin on mitään hidastuksia enää käytössä renderöintinopeuteen liittyen tai ei ole ainakaan mun silmiin osunut. Studio ajuriahan nvidia kyllä tarjoaa pelikorteillekin. Studio ajuri sama kuin peliajuri, mutta enemmän testausta esim. photoshop/davinci resolve liittyen ja päivitysväli harvempi. Taitaa riittää pelikorttien rajallinen muistimäärä ohjaamaan käyttäjiä ostamaan pro korttia jos aikoo vaikka tehdasta suunnitella omniversellä.
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

En tiedä mitä solidworks ja etenkin siemens NX käyttää, mutta tälläinen vanha kuva 3090 julkaisusta löytyi.
Screenshot_20210616-015959.jpg
 
En tiedä mitä solidworks ja etenkin siemens NX käyttää, mutta tälläinen vanha kuva 3090 julkaisusta löytyi.
Screenshot_20210616-015959.jpg
En mä saa tuosta kyllä oikein mitään irti. Pikainen googlettelu niin ei löydy mitään megavalitusta, että jotain muuta kuin tensoriytimien fp16/fp32moodi gimpattu 4090:ssa versus ada rtx 6000. UE5, blender, davinci resolve yms. niin 4090:en vie tän generaation nopeinta pro korttia(ada rtx 6000). 4090:ssa isompi kellotaajuus. Mutta tämä lienee taas ihan väärä ketju nvidian pro vs. pelikortti pohtimiseen. $1,599 RTX 4090 Beats $6,800 RTX 6000 Ada in Content Creation
 
Viimeksi muokattu:
En mä saa tuosta kyllä oikein mitään irti. Kysyin googlelta niin keinoäly kertoo tällaista 4090 vs. ada rtx 6000

katso liitettä 1451702

Ja sit löytyy jotain random tomshardware yms. missä on jotain pro softia vertailtu ja 4090:en vie ada rtx 6000:sta. 4090:ssa isompi kellotaajuus, 6000:ssa isompi muisti
3090 ja titan rtx:ssä on saman verran muistia.

Ja sun linkistä:

"Siemens NX for example typically sees massive performance gains compared to GeForce cards."

Eli joko noi käyttää noita fp16 ja fp32 formaatteja tai sitten on edelleen jotain muita rajoituksia.
 
Kyllä tuo 9070XT varmaan ihan kelpo kortti on. Jännä nähdä, kuinka paljon lisää siitä saa kellottamalla, varsinkin vesiblokilla ja tehorajat poistettuna. 6900XTXH sain >25%, 7900XTX >35% enemmän irti. 5700XT ja 6950XT tuossa vielä "työn alla"..
30% parannus pistäisi tuon jo samalle viivalle 7900XTX kanssa, tosin tehoa tarvii varmasti enemmän.. Toisaalta jos on selkeästi energiatehokkaampi niin olisi sekin kiva, mun ITX-kopassa (Fractal Ridge) polttaa nimittäin jo näppinsä tuon 6950XT:n kanssa 325W tehorajalla :D

Jos hinta on järkevä, niin kai se on hommattava tuokin. Ihan vaan huvin ja (oc-)urheilun vuoksi :D
 
En tiedä mitä solidworks ja etenkin siemens NX käyttää, mutta tälläinen vanha kuva 3090 julkaisusta löytyi.
Screenshot_20210616-015959.jpg

Olisiko tuo sitä wanhaa tuttua Quadro/Gorce optimointieroa ammattisoftiin? Aikanaanhan se oli todella iso. Sitten Vega Frontier muutti pakkaa (siihen sai firegl ajurit) ja yllättäen Titan nopeutui rajusti ammattisoftissa, kun sai ennen vain Quadrolle varatut softaoptimoinnit.

En kyllä tiedä missä tilassa quadro/geforce on nykyään, eli onko kaikki softaoptimoinnit käytössä ja quadrolla vain "me takaamme toimivuuden", vai mikä on tilanne.
 
3d softissa kuten blender, autocad tai omniverse tuskin on mitään hidastuksia enää käytössä renderöintinopeuteen liittyen tai ei ole ainakaan mun silmiin osunut.
On noissa ajureissa rajoituksia. esim. NVIDIA:n puolella P2P-tuki vaatii Linuxilla epävirallisen patsin käyttämistä, ja oletan että Windows-puolella se ei toimi ollenkaan.
 
Alkaa vähän kuume nousemaan. Unelmissa olis 4080 suorituskyky 600-650 euron hintaan, mutta se taitaa olla vähän liian paljon vaadittu.
 
Alkaa vähän kuume nousemaan. Unelmissa olis 4080 suorituskyky 600-650 euron hintaan, mutta se taitaa olla vähän liian paljon vaadittu.
Eiköhän se ole alle 600 dollaria jenkeissä(jos Amd aggressiivinen hinnoitelussa niin alle 500 dollaria) ja Suomi hinta sitten mitä vain.

Itse miettinyt että käytetty RX 7900 xt voisi olla aika kova vaihtoehto, sitä jo saanut 650 eurolla ja jopa allekin käsittääkseni tällä foorumilla, tosin sitten pitäisi miettiä kumpaa arvostaa enemmän, huhuttua parempaa av1 jossa b frame tuki joka parantaa kuvanlaatua sekä energiatehokkuutta ja parempaa rt suorituskykyä(itse en välitä vielä asiasta) sekä että on uusi ja on takuu vai 4gb enemmän vramia ja mahdollisesti hiukan halvempi(käytettynä).
 
Ainakin videoenkoodauksen osalta on tapahtunut kehitystä, kun RDNA 4:lle on luvattu AV1-formaatin osalta B-frame-tukea
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Eiköhän se ole alle 600 dollaria jenkeissä(jos Amd aggressiivinen hinnoitelussa niin alle 500 dollaria) ja Suomi hinta sitten mitä vain.

Itse miettinyt että käytetty RX 7900 xt voisi olla aika kova vaihtoehto, sitä jo saanut 650 eurolla ja jopa allekin käsittääkseni tällä foorumilla, tosin sitten pitäisi miettiä kumpaa arvostaa enemmän, huhuttua parempaa av1 jossa b frame tuki joka parantaa kuvanlaatua sekä energiatehokkuutta ja parempaa rt suorituskykyä(itse en välitä vielä asiasta) sekä että on uusi ja on takuu vai 4gb enemmän vramia ja mahdollisesti hiukan halvempi(käytettynä).
Noissa vaihtoehdoissa mulle varmaan se takuu merkitsee eniten. Ostan kortin 5 vuoden välein suunnilleen ja en halua olla koko ajan pelko persiissä että hajoaako se sillä aikaa. Muuten mulle riittäis kyllä varmaan 7800xt:kin.

Noh, katotaan mitä sieltä tulee.
 
Ainakin videoenkoodauksen osalta on tapahtunut kehitystä, kun RDNA 4:lle on luvattu AV1-formaatin osalta B-frame-tukea
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Onko tällä mitään merkitystä mahdolliselle VR-suorituskyvylle? Tai onko ylipäätänsä ollut mitään huhuja VR-suorituskyvystä, jossa AMD on laahannut pahasti Nvidian perässä.

Vai onko ongelma vain softapuolella?
 
Onko tällä mitään merkitystä mahdolliselle VR-suorituskyvylle? Tai onko ylipäätänsä ollut mitään huhuja VR-suorituskyvystä, jossa AMD on laahannut pahasti Nvidian perässä.

Vai onko ongelma vain softapuolella?
Suorituskykyyn tuskin vaikutusta mutta voisi parantaa kuvanlaatua jos käyttää langattomasti tai langallisilla VR laseilla joissa ei ole hdmi/displayport tukea. Paljonko niin en osaa sanoa, pitäisi varmaan odotella jonkun EposVox tubettajan arviota miten enkoodauksessa B-frame tuki parantaa kuvanlaatua striimauksessa(joka tarkoittaa miten tietokoneelta VR laseille striimaus näyttää).

Käsittääkseni Esim RX 7xxx sarjassa Amd oli alussa isoja suorituskykyongelmia ajurien kanssa VR peleissä mutta nyt pitäisi toimia suurimmassa osassa pelejä kuten kuuluu.

On sitten yksittäisiä pelejä joissa Amd näytönohjain ei oikein toimi kunnolla, en nyt muista mistä yksi käyttäjä tällä foorumilla puhui että ei toimi kunnolla vieläkään Amd näytönohjaimella.

Voi olla tai sitten olematta että ajurien täytyy parantua jotta toimii 99 prosentissa VR pelejä kunnolla sitten kun uusi RX 9xxx sarja tulee.
 
Suorituskykyyn tuskin vaikutusta mutta voisi parantaa kuvanlaatua jos käyttää langattomasti tai langallisilla VR laseilla joissa ei ole hdmi/displayport tukea. Paljonko niin en osaa sanoa, pitäisi varmaan odotella jonkun EposVox tubettajan arviota miten enkoodauksessa B-frame tuki parantaa kuvanlaatua striimauksessa(joka tarkoittaa miten tietokoneelta VR laseille striimaus näyttää).

Käsittääkseni Esim RX 7xxx sarjassa Amd oli alussa isoja suorituskykyongelmia ajurien kanssa VR peleissä mutta nyt pitäisi toimia suurimmassa osassa pelejä kuten kuuluu.

On sitten yksittäisiä pelejä joissa Amd näytönohjain ei oikein toimi kunnolla, en nyt muista mistä yksi käyttäjä tällä foorumilla puhui että ei toimi kunnolla vieläkään Amd näytönohjaimella.

Voi olla tai sitten olematta että ajurien täytyy parantua jotta toimii 99 prosentissa VR pelejä kunnolla sitten kun uusi RX 9xxx sarja tulee.
Kiitos vastauksesta. Tosiaan tuo striimaus taisi ollakin se ongelma esim. Quest 3:n kanssa, mistä olin lukenut netissä, jonka vuoksi ihmiset suosittelevat Nvidian tuotteita.

Myös ilmeisesti iRacingissa on ongelmia AMD:n korttien kanssa, jos täytyy renderöidä useampaa kuvaa samaan aikaan (eli VR tai triple-screen), joten siellä suositellaan pääsääntöisesti Nvidian kortteja myöskin. Kyllä siellä porukka ajelee myös AMD:lla, mutta aika paljon ongelmista saanut lukea.

Itsellä ei sinänsä mitään hajua aiheesta, mutta suunnitteilla on sekä VR-lasit että uusi kortti iRacingia varten jossakin vaiheessa tätä vuotta, niin siinä mielessä kiinnostaa.
 
Tämä tosiaan kiinnostaa itseäkin, kun lähinnä VR-puuhiin kortti on hakusessa. Quest 2 käytössä. Taitaa vaan Nvidia olla sen verran kalliimpi per pikseli, että näillä tuloilla amd on ainoa vaihtoehto.
 
Käyttääkö kukaan DxO Photolab ohjelmaa AMD kortilla?. Itsellä nyt 3080 ja harkinnassa AMD kortti mutta tuo ei saisi kyllä hidastua.
 
Käyttääkö kukaan DxO Photolab ohjelmaa AMD kortilla?. Itsellä nyt 3080 ja harkinnassa AMD kortti mutta tuo ei saisi kyllä hidastua.

Käytössä on (6800xt), verrattuna intelin integroidulla olevaan kannettavaan export on huomattavasti nopeampi. Ei se tietty kunnon vertailuarvoa anna nvidiaan suhteutettuna.
 
Käytössä on (6800xt), verrattuna intelin integroidulla olevaan kannettavaan export on huomattavasti nopeampi. Ei se tietty kunnon vertailuarvoa anna nvidiaan suhteutettuna.

Tänne olikin kerätty infoa:
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Deep primellä näemä 3090 ja 6900xt on aika tasoissa, toisin versiot (4-6) eivät ole ihan uusimpia.
 
Tänne olikin kerätty infoa:
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Deep primellä näemä 3090 ja 6900xt on aika tasoissa, toisin versiot (4-6) eivät ole ihan uusimpia.

Ajoissa paljon ristiriitaa, 2070 nopein. Mutta ei 6900XT näytä häviävän, nyt on kyllä versio 8 jo.
 
Mitäs sitä illan eventiltä voi odottaa? Tuleeko pelkkä lista siitä mitä kortti on syönyt ja hinta vai saadaanko tietää testituloksia tms? En ole ikinä tälläistä tapahtumaa seurannut. Nyt oon odottanu jo pitkään, kun se kortti pitäis hommata.
 
Mitäs sitä illan eventiltä voi odottaa? Tuleeko pelkkä lista siitä mitä kortti on syönyt ja hinta vai saadaanko tietää testituloksia tms? En ole ikinä tälläistä tapahtumaa seurannut. Nyt oon odottanu jo pitkään, kun se kortti pitäis hommata.

Speksit ekana julkaistavasta kortista ja pienempi tai isompi määrä valmistajan käsin valitsemia testituloksia on käytännössä varma. Jos tulee useampi malli kerralla myyntiin, niin kaikista speksit ja ~samat testit. Vaikka ei tulisi kahta eri mallia heti aluksi myyntiin niin silti luultavasti sen toisenkin speksit julkaistaan.

Julkaisupäivä hyvin suurella todennäköisyydellä tulee kanssa, kuin myös hinta. Hinta tosin voi vielä jälkikäteen muuttua kilpailijan julkistuksen mukaan (esim RX 7600), joskus on nimet (esim RTX 4080 12Gb) tai jopa speksit (esim RX 5600 XT) vaihtuneet tuotteilla ja joskus myös on tehty niin, että aluksi julkaistu mielenkiintoiset tuotteet ja vasta vähän myöhemmin todelliset jytkyt (prossuista Ryzen 3000-sarja, aluksi tuli 6- ja 8-ytimiset mallit ja sitten muistaakseni viikkoa myöhemmin jytkytettiinkin pöytää myös 12- ja 16-ytimiset versiot)
 
Kiitos paljon. Pari kyssäriä vielä : Saavatko jotkut nettivideoiden tekijät noita kortteja etukäteen testejä varten vai pitääkö pelikohtaisia tuloksia odotella siihen asti kunnes ovat kortit kaupoissa? Jos nyt alkuun tulee yks malli ja yks versio, niin milloinkohan saataisiin muitten firmojen korteista infoa vertailua varten?

Kovasti kiinnostaa 9070xt:n ja 9070:sen erot suorituskyvyissä ja hinnoissa.
 
Kiitos paljon. Pari kyssäriä vielä : Saavatko jotkut nettivideoiden tekijät noita kortteja etukäteen testejä varten vai pitääkö pelikohtaisia tuloksia odotella siihen asti kunnes ovat kortit kaupoissa? Jos nyt alkuun tulee yks malli ja yks versio, niin milloinkohan saataisiin muitten firmojen korteista infoa vertailua varten?

Kovasti kiinnostaa 9070xt:n ja 9070:sen erot suorituskyvyissä ja hinnoissa.

Noi saa ne etukäteen kuten io-teckillä varmaan on jo yksi tai kaksi mallia kädessään. Jos io-tech ei saa kaikkia tulevia niin ainakin nää isommat Youtuben testaajat, GN, HU, LTT jne saavat aina. (joitain poikkeuksia on halvat mallit koko malliston elinkaaren puolivälissä jolloin niitä vaan julkaistaan ilman markkinointia)

Mutta pääsääntöisesti testitulokset saa julkaista samaan aikaan kun myynti alkaa, tai joskus päivää aikaisemmin, valmistajasta ja mallista riippuen. Parin parhaimman mallin tulokset saa pääsääntöisesti julkaista vuorokautta aiemmin, keskitason(600e-800e) mallien ei välttämättä.

Yleensä saa myös julkaista tyhjänpäiväisiä unboxing videoita vuorokautta tai muutamaa aikaisemmin. Ne tosin eivät koskaan kerro yhtään mitään tuotteista ja ovat puhdasta markkinointia.


Jos hinnat ovat houkuttelevat niin suosiolla ehdotan että laittaa opportunistisesti tilauksia vetämään näihin ainakin Suomessa toimiviin liikkeisiin, että saa jostain jotain jollain järkevällä aikataululla. En muista lainkaan että ainakaan AMD olisi minkään julkaisussa omannut kunnollista varastoa valmiina kaupoissa. Vaan kaupoissa on ehkä muutama yksilö jotka nopeimmat saa ja kaikki muut saa odotella kuukauden tai parikin. Niinkuin normaalitilanteessa, unohtaen 3000/6000 sarjan hyvin poikkeuksellisen tilanteen.

Näillä Suomessa toimivilla liikkeillä eli Gigantti, Verkkokauppa, Jimm(z), Datatronic, Multitronic voi toimitetunkin tuotteen palauttaa ilmaiseksi. Proshop pyytää jonkun vitosen tms. palautuksesta ja Dustin Homesta en muista. Lisäksi noilla muilla paitsi Gigantilla pystyy helposti lähetykseen menevän tuotteen peruuttamaan, jolloin siitä ei ole edes mitään ylimääräistä vaivaa kenellekään.


"yks malli ja yks versio, niin milloinkohan saataisiin muitten firmojen korteista infoa vertailua varten?"

Suorituskykyerot eri versioiden välillä siis tyyliin dual, tuf ja stix ovat aika olemattomia. Suurimmat erot ovat jäähyissä ja niissäkin pääsääntöisesti jo version nimestä ja mallin TDP arvosta pystyy päättelemään etukäteen onko 2 tai 3 tuulettimen malli. Oikeat vertailut ovat siis aina mallien välillä.


"Kovasti kiinnostaa 9070xt:n ja 9070:sen erot suorituskyvyissä ja hinnoissa."

Suorituskykyerot mallisarjan sisällä voi aika lailla laskea suoraan shader yksiköiden määristä.
 
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Tuo on tänään 21:00 -> Eikös AMD julkaise tuossa sitten uudet näytönohjaimet? Nvidian vastaava on aamuyöstä niin ei motivaatio riitä siihen.
 
Mahdollisesti, mutta itse ajattelin ainakin katsella. Mahtaako io-techillä olla seurantastriimiä?
 

Statistiikka

Viestiketjuista
295 795
Viestejä
5 051 697
Jäsenet
80 982
Uusin jäsen
kevin123

Hinta.fi

Back
Ylös Bottom