NVIDIA-spekulaatioketju (Blackwell ja tulevat sukupolvet)

Jos ostan kilon voita ja yritän tunkea sitä puolen kilon kippoon niin itse en ainakaan ensinsi alkaisi syyttäämään kipon tekijää että tila loppuu kesken
Huono vertaus.

Kuitenkin vaikkapa jos Rtx 5070 tulee 12gb vramilla(ja Nvidia ei ole saanut älykästä tekstuurien kompressiota) ja on ylemmän luokan 1440p kortti 600+ eurolla jossa tehot riittää hyvin 1440p resolla niin kyllä se tulee ikääntymään kuin maito. Toki jos ostaa vaikkapa 340 eurolla 12gb vramilla olevan Intel b580 joka on alemman tason 1440p kortti niin siinä voisi ymmärtääkin että ei voi olettaa että kaikissa peleissä saisi ne tekstuurit ja muut asetukset ultraan vielä parin vuoden päästä edes käyttäen älykkäitä skaalaimia.

On aivan päivänselvää että riippuen näytönohjaimen hinnasta voisi ajatella ostajalla olevan erilaisia odotuksia esim 16gb vram 500(jossa vuonna 2025 mielestäni täysin ok), n.1000(menettelee) tai n.1500 euron näytönohjaimessa jossa ainakin siinä n.1500 eurolla olettaisi vielä 2 vuoden päästä ettei vram ole este.

Se tulee näkymään niin että jos Nvidialta ei tule älykästä tekstuurien kompressointia uusimpaan 5xxx sarjaan niin vaikka Rtx 5080 16gb vramilla olisi 10 prosenttia nopeampi kuin Rtx 4090 jossa 24gb vramia niin se tulee olemaan vram määrärajoitteinen tulevaisuudessa pelatessa 4k resolla.
 
Huono vertaus.

Kuitenkin vaikkapa jos Rtx 5070 tulee 12gb vramilla(ja Nvidia ei ole saanut älykästä tekstuurien kompressiota) ja on ylemmän luokan 1440p kortti 600+ eurolla jossa tehot riittää hyvin 1440p resolla niin kyllä se tulee ikääntymään kuin maito. Toki jos ostaa vaikkapa 340 eurolla 12gb vramilla olevan Intel b580 joka on alemman tason 1440p kortti niin siinä voisi ymmärtääkin että ei voi olettaa että kaikissa peleissä saisi ne tekstuurit ja muut asetukset ultraan vielä parin vuoden päästä edes käyttäen älykkäitä skaalaimia.

On aivan päivänselvää että riippuen näytönohjaimen hinnasta voisi ajatella ostajalla olevan erilaisia odotuksia esim 16gb vram 500(jossa vuonna 2025 mielestäni täysin ok), n.1000(menettelee) tai n.1500 euron näytönohjaimessa jossa ainakin siinä n.1500 eurolla olettaisi vielä 2 vuoden päästä ettei vram ole este.

Se tulee näkymään niin että jos Nvidialta ei tule älykästä tekstuurien kompressointia uusimpaan 5xxx sarjaan niin vaikka Rtx 5080 16gb vramilla olisi 10 prosenttia nopeampi kuin Rtx 4090 jossa 24gb vramia niin se tulee olemaan vram määrärajoitteinen tulevaisuudessa pelatessa 4k resolla.
Pystytkö sanomaan halvemman luokan näytönohjainta joka pystyisi edes pyörittämään RTX kaikki detailit täysillä tehojen puolesta ja muisti olisi ainoa este pelin pelaamiselle ?
 
Viimeksi muokattu:
Pystytkö sanomaan halvemman luokan näytönohjainta joka pystyisi edes pyörittämään RTX kaikki detailit täysillä tehojen puolesta ja muisti olisi ainoa este pelin pelaamiselle ?

Se että ei ole halvempia vaihtoehtoja ei tarkoita etteikö RTX 5080 olisi silti ihan jöötiä esim. muistin ja hinnan takia. Paraskin voi olla aivan paska, jos kilpailua ei ole. :smoke:
 
Huono vertaus.

Kuitenkin vaikkapa jos Rtx 5070 tulee 12gb vramilla(ja Nvidia ei ole saanut älykästä tekstuurien kompressiota) ja on ylemmän luokan 1440p kortti 600+ eurolla jossa tehot riittää hyvin 1440p resolla niin kyllä se tulee ikääntymään kuin maito. Toki jos ostaa vaikkapa 340 eurolla 12gb vramilla olevan Intel b580 joka on alemman tason 1440p kortti niin siinä voisi ymmärtääkin että ei voi olettaa että kaikissa peleissä saisi ne tekstuurit ja muut asetukset ultraan vielä parin vuoden päästä edes käyttäen älykkäitä skaalaimia.

On aivan päivänselvää että riippuen näytönohjaimen hinnasta voisi ajatella ostajalla olevan erilaisia odotuksia esim 16gb vram 500(jossa vuonna 2025 mielestäni täysin ok), n.1000(menettelee) tai n.1500 euron näytönohjaimessa jossa ainakin siinä n.1500 eurolla olettaisi vielä 2 vuoden päästä ettei vram ole este.

Se tulee näkymään niin että jos Nvidialta ei tule älykästä tekstuurien kompressointia uusimpaan 5xxx sarjaan niin vaikka Rtx 5080 16gb vramilla olisi 10 prosenttia nopeampi kuin Rtx 4090 jossa 24gb vramia niin se tulee olemaan vram määrärajoitteinen tulevaisuudessa pelatessa 4k resolla.
AMD:n rdna4 korteilla ei sitten pelata 4k:na kun vain 16GB ja alle kortteja tulossa? Yhdestä epäkiinnostavasta pelistä vedetään johtopäätöksiä ettei pelintekijät tajuaisi optimoida pelejä muistimäärille mitä löytyy eniten myydyistä korteista. Huhut laittaa udna/rdna5 kortit 2026 loppupuolelle. Pitkä aika odotella 4k korttia amd:n leirissä jos 16GB ei riitä.
 
AMD:n rdna4 korteilla ei sitten pelata 4k:na kun vain 16GB ja alle kortteja tulossa? Yhdestä epäkiinnostavasta pelistä vedetään johtopäätöksiä ettei pelintekijät tajuaisi optimoida pelejä muistimäärille mitä löytyy eniten myydyistä korteista. Huhut laittaa udna/rdna5 kortit 2026 loppupuolelle. Pitkä aika odotella 4k korttia amd:n leirissä jos 16GB ei riitä.

AMD:n rdna4:lle ei vaan ole samoja odotuksia kun hintataso on matalempi. Kyllä pitkälti yli tonnin hinnalla voisi odottaa yli 16 gigaa muistia vuonna 2025, kun joissain kehnommin optimoiduissa peleissä se tulee jo nyt vastaan. Sen sijaan 600-700e kortilta ei voi odottaa samaa.
 
AMD:n rdna4:lle ei vaan ole samoja odotuksia kun hintataso on matalempi. Kyllä pitkälti yli tonnin hinnalla voisi odottaa yli 16 gigaa muistia vuonna 2025, kun joissain kehnommin optimoiduissa peleissä se tulee jo nyt vastaan. Sen sijaan 600-700e kortilta ei voi odottaa samaa.
Olen lukenut hiljattain uunituoretta the nvidia way kirjaa. Yli 20v sitten jensen/nvidia tajus, että gpu puolella häviää jos antaa kilpailijan rakentaa position halpojen tuotteiden kautta. Tuo johti monenlaisiin asioihin nvidian toimintatavoissa mitä kirjassa kuvataan. Tän pohjalta ei ole yllättävä lopputulos kun katsoo myyntejä vaikka viime kvartaalilta. Bisnes on aika paljon muuta kuin speksien tuijottelua. Nvidia on onnistunut säätämään asiat niin ettei halvemmalla myyminen ole voittava strategia.

amd
Gaming segment revenue was $462 million, down 69% year-over-year and 29% sequentially primarily due to a decrease in semi-custom revenue.
nvidia
Third-quarter Gaming revenue was $3.3 billion, up 14% from the previous quarter and up 15% from a year ago.

Tällä kertaa ollaan uniikissa positiossa kun amd julkistaa korttinsa ensin ja nvidia pääsee vastaamaan. Epäilen, että nvidia osaa vastauksen tehdä nvidian voitot optimoivalla tavalla vaikka se ei nettikansaa miellyttäisi. Lopputulos kuitenkin luetaan liikevoitosta.

Hyvä haastis the nvidia way kirjan tekijältä: Nvidia's Unique History and Culture
 
Olen lukenut hiljattain uunituoretta the nvidia way kirjaa. Yli 20v sitten jensen/nvidia tajus, että gpu puolella häviää jos antaa kilpailijan rakentaa position halpojen tuotteiden kautta. Tuo johti monenlaisiin asioihin nvidian toimintatavoissa mitä kirjassa kuvataan. Tän pohjalta ei ole yllättävä lopputulos kun katsoo myyntejä vaikka viime kvartaalilta. Bisnes on aika paljon muuta kuin speksien tuijottelua. Nvidia on onnistunut säätämään asiat niin ettei halvemmalla myyminen ole voittava strategia.

amd

nvidia


Tällä kertaa ollaan uniikissa positiossa kun amd julkistaa korttinsa ensin ja nvidia pääsee vastaamaan. Epäilen, että nvidia osaa vastauksen tehdä nvidian voitot optimoivalla tavalla vaikka se ei nettikansaa miellyttäisi. Lopputulos kuitenkin luetaan liikevoitosta.

Hyvä haastis the nvidia way kirjan tekijältä: Nvidia's Unique History and Culture

En ihan tajua miten tuo liittyy mun viestiin. Väitätkö siis että nVidia asettaisi hinnan AMD:n hintojen perusteella, tarvittaessa esimerkiksi vaikka tipauttaen RTX 5080:n hinnan reippaasti alle tonniin jos kilpailukykyisenä pysyminen sitä vaatisi?

Pelipuolen tulokset ei kyllä yllätä yhtään, kun ottaa huomioon monien merkkiuskollisuuden JA nVidian myynnin AI-puolelle, myös nimellisesti pelipuolen tuotteista. AMD taas ei ole lähtenyt hintakilpailemaan nVidian kanssa, joten mitä syytä olisi ostaa heidän korttiaan? :hmm:

Sikäli nVidia on kyllä hoitanut hommat hyvin että on aivan anuksesta olla heidän asiakkaanaan ja erittäin hyvä olla heidän osakkeenomistajana.
 
Pystytkö sanomaan halvemman luokan näytönohjainta joka pystyisi edes pyörittämään RTX kaikki detailit täysillä tehojen puolesta ja muisti olisi ainoa este pelin pelaamiselle ?
Vähän tarkennusta kaipaisi niin voisi helpommin vastata esim mikä on mielestäsi halvemman luokan näytönohjain, mikä resoluutio, onko ok käyttää älykkäitä skaalaimia ja/tai frame generaatiota ja mikä fps lasketaan pelattavaksi ja riittääkö vain se että fps tippuu reilusti verrattuna että olisi enemmän vram muistia? No vaikkapa 1440p natiivi resolla säteenseurannan kanssa Rtx 4070 12gb versio Ratchet&Clank vetäisi 60+ fps jos olisi 16gb vramia.


AMD:n rdna4 korteilla ei sitten pelata 4k:na kun vain 16GB ja alle kortteja tulossa? Yhdestä epäkiinnostavasta pelistä vedetään johtopäätöksiä ettei pelintekijät tajuaisi optimoida pelejä muistimäärille mitä löytyy eniten myydyistä korteista. Huhut laittaa udna/rdna5 kortit 2026 loppupuolelle. Pitkä aika odotella 4k korttia amd:n leirissä jos 16GB ei riitä.
Jos luokkaa tonnin maksavaan Rtx 5070 ti on Nvidia saanut jotain älykästä muistin kompressointia niin se voisi vielä mennä itselläni, muuten taitaapi olla itselläni että n.600 euron 9070 Xt/7900 Xt/Xtx olla se päivitys, sitten 2026 lopulla tai 2027 alussa varmaan seuraava päivitys jollei tule jotain erityistä syytä.

Itse pelaan tällä hetkellä 4k Rtx 4070 kanssa mutta yllättävän vähän rajoittanut se 12gb vramia omissa peleissä mitä pelannut enemmän, toki maksoin siitä n.600 euroa 2023 kesällä että odotukset ei ollut että kaikkia asetuksia voi edes laittaa ultralle edes älykkäiden skaalausten ja frame generaation avulla.

Edit ja itse tosiaan olen täysin sitä mieltä että pelaajilla pitäisi olla eri odotukset esim 500-600 euron, 900-1100 euron tai 1500+ näytönohjaimesta eli juurikin 500-600 eurolla vuonna 2025 riittää hyvin, 900-1100 eurolla menettelee ja 1500+ eurolla ollaan jo aika härskejä.

Totta tosin on että kyllä se Nvidia myy vaikka olisi vähemmänkin vramia.
 
Vähän tarkennusta kaipaisi niin voisi helpommin vastata esim mikä on mielestäsi halvemman luokan näytönohjain, mikä resoluutio, onko ok käyttää älykkäitä skaalaimia ja/tai frame generaatiota ja mikä fps lasketaan pelattavaksi ja riittääkö vain se että fps tippuu reilusti verrattuna että olisi enemmän vram muistia? No vaikkapa 1440p natiivi resolla säteenseurannan kanssa Rtx 4070 12gb versio Ratchet&Clank vetäisi 60+ fps jos olisi 16gb vramia.



Jos luokkaa tonnin maksavaan Rtx 5070 ti on Nvidia saanut jotain älykästä muistin kompressointia niin se voisi vielä mennä itselläni, muuten taitaapi olla itselläni että n.600 euron 9070 Xt/7900 Xt/Xtx olla se päivitys, sitten 2026 lopulla tai 2027 alussa varmaan seuraava päivitys jollei tule jotain erityistä syytä.

Itse pelaan tällä hetkellä 4k Rtx 4070 kanssa mutta yllättävän vähän rajoittanut se 12gb vramia omissa peleissä mitä pelannut enemmän, toki maksoin siitä n.600 euroa 2023 kesällä että odotukset ei ollut että kaikkia asetuksia voi edes laittaa ultralle edes älykkäiden skaalausten ja frame generaation avulla.

Edit ja itse tosiaan olen täysin sitä mieltä että pelaajilla pitäisi olla eri odotukset esim 500-600 euron, 900-1100 euron tai 1500+ näytönohjaimesta eli juurikin 500-600 eurolla vuonna 2025 riittää hyvin, 900-1100 eurolla menettelee ja 1500+ eurolla ollaan jo aika härskejä.

Totta tosin on että kyllä se Nvidia myy vaikka olisi vähemmänkin vramia.

5070 ti kortissa taitaa olla 16GB muistia niin luulisi että se riittää 2k pelaamiseen

 
Jos luokkaa tonnin maksavaan Rtx 5070 ti on Nvidia saanut jotain älykästä muistin kompressointia niin se voisi vielä mennä itselläni, muuten taitaapi olla itselläni että n.600 euron 9070 Xt/7900 Xt/Xtx olla se päivitys, sitten 2026 lopulla tai 2027 alussa varmaan seuraava päivitys jollei tule jotain erityistä syytä.
Alkaa oleen ihan väärä ketju tähän, mutta 9070xt lienee 800e tai päälle. Huhuttuun 649$ hintaan euro konversio ja alv niin ollaan 780e jos ei tule eu/suomilisiä päälle. 9070 lienee leikattu piiri ja 12GB muistilla. AIB/OC mallit lienee kalliimpia kuin huhuttu halvin 649$ referenssimalli.

Nvidia pääsee katsomaan tällä kertaa mitä amd julkistaa ja rukkaa sitten omat hintansa sopivaksi. Aika monta kertaa aikaisemmin ensin nvidia julkaissut ja amd jälkikäteen tullut ja hinnoitellut sen pohjalta mitä nvidia oli jo laittanut ulos.
 
Pystytkö sanomaan halvemman luokan näytönohjainta joka pystyisi edes pyörittämään RTX kaikki detailit täysillä tehojen puolesta ja muisti olisi ainoa este pelin pelaamiselle ?
Kyllähän RTX 4060 Ti pystyisi etenkin DLSS 3 FG päällä pyörittämään pelejä vaikka säteenseuranta päällä, mutta muisti loppuu täysin. FG:n jälkeen peleille jää se 6.5GB muistia käytettäväksi.

Omalla RTX 3070 Ti:llä oli muistin loppumisen kanssa ongelmia seuraavissa peleissä 1440p-resoluutiolla. Tehot kyllä riittivät ja peli pyöri siihen asti, kunnes muisti loppui.
  • Witcher 3
  • Cyberpunk 2077
  • Resident Evil 4
  • Hogwarts Legacy
  • The Last of Us Part 1
  • BeamNG
Tuon jälkeen on tullut varmasti lisää pelejä, joille muisti ei riitäisi. Lisäksi tuossa kortissa piti käyttää DLSS2:aa, joka vie paljon vähemmän muistia kuin DLSS3.

Hardware Unboxed on tehnyt useita videoita, joissa on testailtu 8GB ja 12GB muistin riittävyyttä. Lopputuloksena on ollut, että 8GB ei enää riitä kunnolla ja 12GB on minimi.
5070 ti kortissa taitaa olla 16GB muistia niin luulisi että se riittää 2k pelaamiseen

Tuo 5070 Ti vaikuttaa äkkiseltään järkevimmältä speksien perusteella, mutta hintaa ei vielä tiedä. Sen sijaan on aika vaikea puolustella 5060 ja 5070 -korttien muistivalintaa.
 
Kyllähän RTX 4060 Ti pystyisi etenkin DLSS 3 FG päällä pyörittämään pelejä vaikka säteenseuranta päällä, mutta muisti loppuu täysin. FG:n jälkeen peleille jää se 6.5GB muistia käytettäväksi.

Omalla RTX 3070 Ti:llä oli muistin loppumisen kanssa ongelmia seuraavissa peleissä 1440p-resoluutiolla. Tehot kyllä riittivät ja peli pyöri siihen asti, kunnes muisti loppui.
  • Witcher 3
  • Cyberpunk 2077
  • Resident Evil 4
  • Hogwarts Legacy
  • The Last of Us Part 1
  • BeamNG
Tuon jälkeen on tullut varmasti lisää pelejä, joille muisti ei riitäisi. Lisäksi tuossa kortissa piti käyttää DLSS2:aa, joka vie paljon vähemmän muistia kuin DLSS3.

Hardware Unboxed on tehnyt useita videoita, joissa on testailtu 8GB ja 12GB muistin riittävyyttä. Lopputuloksena on ollut, että 8GB ei enää riitä kunnolla ja 12GB on minimi.

Tuo 5070 Ti vaikuttaa äkkiseltään järkevimmältä speksien perusteella, mutta hintaa ei vielä tiedä. Sen sijaan on aika vaikea puolustella 5060 ja 5070 -korttien muistivalintaa.
Nyt oli aikaisemmin kyse vain Avatar pelistä jossa hän väitti että 16GB ei riitä jos pelaa RTX ja kaikki detalit täysillä mutta jätti huomiotta riitääkö potku kortissa myös 60 fps mikä omalla kohtaa on ainakin minimi


Tämä josta oli puhe ja tosiaan muiden pelin kohdalla ei ole noin naurettavia vaatimuksi niin olisikohan peli jossa vika
 
Jos muisti loppuu kesken niin taitaa olla enemmän vika ihmisissä jotka vääntää tosiaan päälle kaikki ylimääränen mitä kortti ei tehoiltaan pysty suorittamaan

Tämä josta oli puhe ja tosiaan muiden pelin kohdalla ei ole noin naurettavia vaatimuksi niin olisikohan peli jossa vika
Tai sitten vika on Nvidiassa, joka nuukailee muistin kanssa sukupolvesta toiseen. Tilanne ei vaikuta muuttuvan nytkään :D
 
No onneksi on 3 merkistä mitä valita ja jättää se Nvidia ostamatta
Ongelmana vain että valinnanvaraa on vain Rtx 5070 ti/Rtx 4080 super saakka eli Rtx 4090/Rtx 5080/Rtx 5090 ei ole siinä teholuokassa valinnanvaraa Intelillä eikä Amd ainakaan toistaiseksi.

Ja tottakai Nvidia(tai ihan varmasti myös Amd tai Intel tekisi jos olisivat samassa asemassa) voitot maksimoidakseen laittavat sinne yläpäähän jossa ei kilpailua ole vähemmän vramia koska siinä on kaksi etua:

1: Se on halvempaa laittaa vähemmän jolloin kate suurempi.

2: Sillä mahdollisestaan isommat myynnit koska käyttäjät jotka tarvitsevat nyt todella tehokkaan näytönohjaimen jossa enemmän kuin 16gb vramia ostavat sitten sen huippumallin 2000+ eurolla(tai vanhan huippumallin esim käytettynä) tai sitten he jotka ostavat sen Rtx 5080 ovat sitten päivittämässä 1-2 vuoden päästä jos alkaa vram loppua kesken omassa käytössä.

Olisihan se voitontavoittelun kannalta tyhmää laittaa tarpeeksi vramia kun muuten käy niin että potentiaaliset ostajat skippaavat yhden sukupolven yli tai ainakin skippaavat refresh mallit.

Vähän offtopic mutta vaikkapa Intel oli monopolistisessa asemassa monta vuotta prosessoripuolella koska kilpailua ei ollut ja sitten saimme "nauttia" siitä että oli 2 ja 4 ytimisiä kuluttajaluokan prosessoreita joissa todella pieniä parannuksia cpu tehossa työpöytäkoneissa. Nyt sentään sillä puolella kilpailua halvimmasta tehokkaimpaan malliin.
 
Oliskohan aika mennä jatkamaan täällä: Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

Ei se nvidian vika ole jos amd ei halua tehdä kuin 16GB kortteja ja intel 12GB kortteja.

Ei, eihän se ole tyhmä se joka pyytää vaan se joka maksaa. :) Voi tosiaan tulla taas sama tilanne kuin 4000-sarjassa että ainoastaan RTX 5090 on wörtti, muut on joko tuhnuja tai vramin määrällä gimpattuja.

Huippukorttien ostajalle tosiaan ikävä tilanne, mua ei niin haittaa kun midrange riittää ja siten 16 gigaa ei ole niin merkittävä ongelma.
 
Vähän semmonen mututuntuma, että tällä erää saattaa olla aika paljon liikkeellä niitäkin ostajia, jotka hommasi koneensa koronavuonna -20 ja ovat nyt päivittämässä. Klikkikilpailu korteista tulee olemaan kovaa.
 
Vähän semmonen mututuntuma, että tällä erää saattaa olla aika paljon liikkeellä niitäkin ostajia, jotka hommasi koneensa koronavuonna -20 ja ovat nyt päivittämässä. Klikkikilpailu korteista tulee olemaan kovaa.
Oma veikkaus on että 5090 on todella vaikea saada, muita saa helposti.

(jos ei ole pelkkä paperijulkaisu, eli ovat valmistaneet 5080 kortteja varastoon saman määrän mitä 4080 julkaisussa oli esim)
 
Vähän semmonen mututuntuma, että tällä erää saattaa olla aika paljon liikkeellä niitäkin ostajia, jotka hommasi koneensa koronavuonna -20 ja ovat nyt päivittämässä. Klikkikilpailu korteista tulee olemaan kovaa.
Mulla 2022 käytettynä ostettu rtx3080ti josta maksoin 800e ja nyt kun on 4k tv näyttönä niin ehkä vähän tarvis vääntöä lisää kortilta. 5080 vois harkita jos hinta ei ihan hirveästi yli tonnin kipua, klikkikisaan taidan osallistua ihan viihteen vuoksi :D
 
2600 USD / 1370 USD 5090/5080 hinnat uusimpien huhujen mukaan.

4090 -> 5090 hinnan nousua 40%.

 
Eli Suomessa 5080 olisi jotain 1500e… Se on näyttiksestä liikaa. Ei sillä etteikö pystyisi, mutta se on vaan näyttis.

Olen samaa mieltä. Aina kun näyttis maksaa samanverran taikka enemmän kuin koko muu kone niin se on yksinkertaisesti liikaa. Monilta on vaan suhteellisuuden taju kadonnut ja siitä syystä näyttisten hinnat karannu.
 
Jos haluaa verestellä muistoja nvidian historiasta ja vanhempien korttien julkaisusta allaoleva kirja on 5/5. Erittäin paljon tarinoita ja kommentteja joista iso osa ei ole aikaisemmin ollut julkisuudessa. Helppo ja nopealukuinen.

Edelleen ihmetyttää miten nvidian perustajat onnistuivat saamaan sun:lta työkoneet mukaansa startuppiin kun ottivat lopputilit. Mikä röyhkeys :D


91rSlfLvEOL._AC_UF1000,1000_QL80_.jpg
 
Olen samaa mieltä. Aina kun näyttis maksaa samanverran taikka enemmän kuin koko muu kone niin se on yksinkertaisesti liikaa. Monilta on vaan suhteellisuuden taju kadonnut ja siitä syystä näyttisten hinnat karannu.
Oisko parempi jos näitä yli 1000 € näytönohjaimia ei myytäisi ollenkaan? Joku 5080 ei enää tuottaisi voittoa välttämättä alle 1000 €, joten nvidia voisi jättää sen tekemättä kokonaan niin olisit onnellinen? Hankala kuvitella että pörssiyhtiö alkaisi tekemään hyväntekeväisyyttä.

Edit: tai voitto on liian pieni, jolloin nvidia toteaa että tehdään vaan konesalikamaa
 
Oisko parempi jos näitä yli 1000 € näytönohjaimia ei myytäisi ollenkaan? Joku 5080 ei enää tuottaisi voittoa välttämättä alle 1000 €, joten nvidia voisi jättää sen tekemättä kokonaan niin olisit onnellinen? Hankala kuvitella että pörssiyhtiö alkaisi tekemään hyväntekeväisyyttä.

Edit: tai voitto on liian pieni, jolloin nvidia toteaa että tehdään vaan konesalikamaa

RTX 4080 on 379mm^2 piirillä kun RTX 3080 oli 628mm^2. Juu, ensin mainitussa oli kalliimpi prosessi mutta TDP oli samaa luokkaa, niin ihan varmana sitäkin olisi voinut myydä voitolla alle tonnilla. Eli eiköhän kyseessä ole hinnoittelu asiakkaiden maksuhalukkuuden perusteella. :D
 
3080 tekisi mieli päivittää, mutta näyttää menevän odotettuun malliin. P/p heikkenee, kun kilpailua on vain alimmissa teholuokissa. 5080 on sen 1500 € ja 5070 Ti ehkä reilu
1200 € ja suunta on F5-talkoiden jälkeen ylöspäin. Olisi kannattanut ostaa 4090 julkaisussa.
 
Voisin veikata että uudessa DLSS on jokin hieno AI kikka joka vähentää huomattavasti VRAM vaatimuksia :hmm:
 
RTX 4080 on 379mm^2 piirillä kun RTX 3080 oli 628mm^2. Juu, ensin mainitussa oli kalliimpi prosessi mutta TDP oli samaa luokkaa, niin ihan varmana sitäkin olisi voinut myydä voitolla alle tonnilla. Eli eiköhän kyseessä ole hinnoittelu asiakkaiden maksuhalukkuuden perusteella. :D
Tässä herää sit kysymys miks AMD myös hinnoittelee kortit niin ylös (lähes nvidia hinnat) eikä reilusti alemmas? Ei kiinnosta markkinaosuus?
 
Tässä herää sit kysymys miks AMD myös hinnoittelee kortit niin ylös (lähes nvidia hinnat) eikä reilusti alemmas? Ei kiinnosta markkinaosuus?

Ei vissiin sitten. Ei prosessien hinnat ole niin paljoa noussut että 40% pienempi piiri maksaisi moninkertaisesti enemmän valmistaa.
 
Ei vissiin sitten. Ei prosessien hinnat ole niin paljoa noussut että 40% pienempi piiri maksaisi moninkertaisesti enemmän valmistaa.
En tiedä, mutta osansa asiassa on myös TSMCllä joka on niin paljon muita edellä. Voi miettiä miksi nvidia ei ole mennyt enää takaisin Samsung asiakkaaksi ja miten se vaikuttaa TSMC hinnoitteluun.
 
Parasta tässä on se, että kun on maksanut 500€ prossusta, 2500€ näyttiksestä (esimerkiksi balttiarallaa 5090) ja tietty muut osta vielä päälle, niin perus AAA pelit näyttää halvoilla konsoleilla ”lähes” yhtä näteiltä mutta ruudunpäivitys jää sitten 4k resoilla pienemmäksi.

Tavan harrastamaton olan yli katsoja ei huomaa eroa jos molemmat kiinni vaikka OLED telkuissa, ihmettelee vaan miksi toinen setti maksaa muutaman tonnin enemmän 🤷‍♂️

Siltin 5090.
 
Ei vissiin sitten. Ei prosessien hinnat ole niin paljoa noussut että 40% pienempi piiri maksaisi moninkertaisesti enemmän valmistaa.
Oletko kokeillut etsiä infoa Samsungin 8nm waferin hinnasta vrt. TSMC 4N? Käsittääkseni tuo Ampere-sukupolvessa käytetty prosessi oli poikkeuksellisen halpa.
 
Parasta tässä on se, että kun on maksanut 500€ prossusta, 2500€ näyttiksestä (esimerkiksi balttiarallaa 5090€) ja tietty muut osta vielä päälle, niin perus AAA pelit näyttää halvoilla konsoleilla ”lähes” yhtä näteiltä mutta ruudunpäivitys jää sitten 4k resoilla pienemmäksi.

Tavan harrastamaton olan yli katsoja ei huomaa eroa jos molemmat kiinni vaikka OLED telkuissa, ihmettelee vaan miksi toinen setti maksaa muutaman tonnin enemmän 🤷‍♂️

Siltin 5090.
Tämän siitä saa kun pelit tehdään konsoleiden ehdoilla, mutta ajattele jos pelit olisi tehty alunperin PC high end rautaa ajatellen, olisi kyllä hienoa settiä.
 
Tämän siitä saa kun pelit tehdään konsoleiden ehdoilla, mutta ajattele jos pelit olisi tehty alunperin PC high end rautaa ajatellen, olisi kyllä hienoa settiä.
Just näin. Jos ei selkeesti parempaa silmäkarkkiakaan ole PCllä tarjolla, no ehkä jotkin Stalker 2 ja Cyberpunk modit, niin olispa edes kaikki asetukset tapissa saavutettavissa korkeita fps lukuja. Vaikkapa niin että 5090 kanssa olis aina vähintään sen 144fps 4K:lla mutta tuskin.
 
Tämän siitä saa kun pelit tehdään konsoleiden ehdoilla, mutta ajattele jos pelit olisi tehty alunperin PC high end rautaa ajatellen, olisi kyllä hienoa settiä.
Suurin osa peleistä joo, mutta yleensä 60 fps tilat on fsr suttua ja 30 fps tila on ainut sellainen laadullisesti jota viittis katella, jos fps olisi yli 60.

On kuitenkin paljon pelejä jotka on ihan eri luokassa pc puolella, kuten Cyberpunk, Alan Wake 2 ja nyt uusimpana indy-peli path tracing kanssa (jos löytyy 4090).
 
Esitit väitteen, muttet viitsi perustella sitä mitenkään. Tässä kuitenkin jotain estimaattia, jonka perusteella AD103 olisi selvästi kalliimpi valmistaa, kuin GA102:

Näyttää että olin silti oikeassa vaikken sitä perustellutkaan. Tuon mukaan GA102 piiri olisi ollut ~$114 ja AD103 ~$179 eli eipä ollut moninkertaista hintaa kuten arvelinkin. Olisi myös ollut helposti mahdollista myydä RTX 4080:ää alle tonnilla. :)
 
3090:n päivitys mielessä 5090 malliin, mutta _jos_ nuo hinnat toteutuu niin ei kyllä ole mitään saumaa maksaa 3k€ tai ylikin pelkästä näyttiksestä.
Ehkä sitten ainakin yksi sukupolvi vielä tällä 3090 kortilla mentäneen....
 
Täällä myös mietinnässä 3080:n päivitys 5080:aan, mutta hieman tuo hinta ja muistin määrä alkanut mietityttämään. Jälkimmäinen ehkä turhaan, varmaan olen lukenut liikaa palstaa. :) Mutta näiden asioiden takia miettinyt myös siirtymistä kilpailevaan leiriin.
 
Just näin. Jos ei selkeesti parempaa silmäkarkkiakaan ole PCllä tarjolla, no ehkä jotkin Stalker 2 ja Cyberpunk modit, niin olispa edes kaikki asetukset tapissa saavutettavissa korkeita fps lukuja. Vaikkapa niin että 5090 kanssa olis aina vähintään sen 144fps 4K:lla mutta tuskin.
Aika paljon enemmän tarviit tehoja 30 fps vs 144 fps, niin ei kai tämä ole ihme. Stillikuvissa konsoli voi menetellä, mutta käytännössä ero yöllä ja päivällä kun pelaa.
 

Uusimmat viestit

Statistiikka

Viestiketjuista
283 282
Viestejä
4 867 206
Jäsenet
78 628
Uusin jäsen
karskikatti

Hinta.fi

Back
Ylös Bottom