NVIDIA-spekulaatioketju (Blackwell ja tulevat sukupolvet)

Ei 3GB piireillä js 24GB kokonaismuistilla varustetulla 5080 kosiskeltaisi kuin AI harrastajia, sillä väylä ei kasvaisi ollenkaan ja täten suorituskyky ei ole pisteessä, että 16GB olisi erityisemmin rajoite peleissä.
Mutta ei tosiaan taida nuo 3GB piirit olla vielä valmiina julkaisuun mennessä.

Oma suositus olisi 5080 julkaista leikatulla GB202 piirillä ja 320bit (20GB) tai 384bit (24GB) muistikonfiguraatiolla ja tämä GB203 + 256bit (16GB) jättää 5070:lle, mutta eipä Nvidia dollarin kiilto silmissään rahvasta kuuntele :cautious:
 
Ei 3GB piireillä js 24GB kokonaismuistilla varustetulla 5080 kosiskeltaisi kuin AI harrastajia, sillä väylä ei kasvaisi ollenkaan ja täten suorituskyky ei ole pisteessä, että 16GB olisi erityisemmin rajoite peleissä.
Mutta ei tosiaan taida nuo 3GB piirit olla vielä valmiina julkaisuun mennessä.

Oma suositus olisi 5080 julkaista leikatulla GB202 piirillä ja 320bit (20GB) tai 384bit (24GB) muistikonfiguraatiolla ja tämä GB203 + 256bit (16GB) jättää 5070:lle, mutta eipä Nvidia dollarin kiilto silmissään rahvasta kuuntele :cautious:
Videoeditoinnissa voi olla 24GB:sta iloa. Davinci resolvella 8k videon loppurenderöinti missä clog2-rec709 konversio ja ultranr(neuroverkko kohinanpoisto) imaisee 14GB gpu muistia. Laittoi mun 3070fe:n pinteeseen missä suorituskyky lähes nolla. Jos laittaa muitakin neuroverkkoefektejä kuten ylöspäin skaalauksen päälle liekö 16GB riittää? Vois myös tulevaisuudessa olla tulossa järeämpiä ja parempilaatuisia neuroverkkoja kuva/videohommiin. 8k->16k ylöspäin skaalaus ihan relevantti applen vr kypärää ajatellen.
 
Ylöspäin skaalausta 8K videolle.. melko marginaalipuuhastelulta kuulostaa ja eiköhän moisen materiaalin tuottajille 5090 ole selvä valinta, kun todennäköisesti menee työkuluihin.

Pointti olikin, että pelaajat kieli pitkällä odottaisivat jotain vastinetta rahoille ja muistimäärän kasvatus kaistaa kasvattamatta (mutta hintaa kyllä) ei ole sitä.
 
Videoeditoinnissa voi olla 24GB:sta iloa. Davinci resolvella 8k videon loppurenderöinti missä clog2-rec709 konversio ja ultranr(neuroverkko kohinanpoisto) imaisee 14GB gpu muistia. Laittoi mun 3070fe:n pinteeseen missä suorituskyky lähes nolla. Jos laittaa muitakin neuroverkkoefektejä kuten ylöspäin skaalauksen päälle liekö 16GB riittää? Vois myös tulevaisuudessa olla tulossa järeämpiä ja parempilaatuisia neuroverkkoja kuva/videohommiin. 8k->16k ylöspäin skaalaus ihan relevantti applen vr kypärää ajatellen.
8K videon editointi kuulostaa melkoisen ammattimaiselta ja raskaalta hommalta. Ei sellaiseen käytetä yleensä jotain keskitason pelikorttia, vaan jotakin, joka on ko hommaan tarkoitettu..
 
Ylöspäin skaalausta 8K videolle.. melko marginaalipuuhastelulta kuulostaa ja eiköhän moisen materiaalin tuottajille 5090 ole selvä valinta, kun todennäköisesti menee työkuluihin.

Pointti olikin, että pelaajat kieli pitkällä odottaisivat jotain vastinetta rahoille ja muistimäärän kasvatus kaistaa kasvattamatta (mutta hintaa kyllä) ei ole sitä.
8k video mutta puolet tuosta per silmä vr kypärässä. 16k on aika hyvä applen vehkeelle.

Imas 14GB 8k pelkällä kohinanpoistolla ja värikorjauksella. Vähän isompi ja parempi neuroverkko kohinanpoistoon niin 16GB ei riitä.Toinen käyttötapaus 360 timelapsejen editointi ja kohinanpoisto. "Halpakin" 360 kamera tekee yli 8k 360 videoissa.

edit. Qoocam3ultra mikä mulla on näyttää tekevän 360 2d videot 13888*6944 resoluutioon. Vajaa 200MB per kuva tiedostot. Noi läjään davinci resolvella videoksi. Qoocamin sensori sellainen että todellakin tarvii parhaan mahdollisen kohinanpoiston ja parannusefektit. En tiedä mikä hinta suomessa mutta jää reilusti alle tonnin. ei ultra vajaan 400e.

3070fe kun sanoi niksnaks eli ei muistia tarpeeksi niin ei ole oikein laitteistoa millä editoida maksimilaatuun tällä hetkellä. Oma suunnitelma applen m4 max läppäri isolla muistilla ja katsoa mihin asti se taipuu. PumPum pelipc:een niin järeä näyttis, että se jatkaa loppurenderöinnit siitä mihin apple kyykkää. Editoi mahdollisimman pitkälle läppärillä akunvarassa matkojen varrella ja kotona ehkä pumpum-koneella loppurenderöinti.
 
Viimeksi muokattu:
Muisti on kallista... Miksi siinä pitäisi olla enemmän muistia? 16 Gigaa on kuitenkin jo melkopaljon pelikortille..
G7 on toki kalliimpaa, mutta olen sitä mieltä, että jos kortti maksaa yli tonnin tänä päivänä, niin sillä rahalla pitäisi saada kovat speksit kokonaisuudessaan. Se lisä 4 Gt muistia ei nyt mahdottoman kalliiksi tule ja muistiväylän leveyskin nousisi kivasti 256bit --> 320bit. Jatkuvasti näyttää sille, että pelit 4K resoluutiolla vaatii enenevissä määrin videomuistia ja AMD:llahan on jo 20 Gt G6 kortti alle tonnilla myynnissä sekä AMD tarjoaa 16 gigaa jo viidensadan euron keskisarjan 7800 XT:ssä.
 
G7 on toki kalliimpaa, mutta olen sitä mieltä, että jos kortti maksaa yli tonnin tänä päivänä, niin sillä rahalla pitäisi saada kovat speksit kokonaisuudessaan. Se lisä 4 Gt muistia ei nyt mahdottoman kalliiksi tule ja muistiväylän leveyskin nousisi kivasti 256bit --> 320bit. Jatkuvasti näyttää sille, että pelit 4K resoluutiolla vaatii enenevissä määrin videomuistia ja AMD:llahan on jo 20 Gt G6 kortti alle tonnilla myynnissä sekä AMD tarjoaa 16 gigaa jo viidensadan euron keskisarjan 7800 XT:ssä.
Varmaan 256bit väylä on jonkinlainen optimi kun sekä nvidia että amd päätyy siihen yhä uudestaan ja uudestaan. Kai se auttaa paljon jos gddr7 muisteilla saa kaistaa 30-40% enemmän ja myöhemmin 3GBit piireillä saa kasvatettua muistikapasiteetin 24GB. Jos huhuttu 512bit on totta niin se on melkoinen irtiotto versus useamman aikaisemman generaation 384bit piirit. Saa mennä aika kauas menneisyyteen, että löytyy yhden piirin 512bit muistiväyläratkaisu korteista.
 
Vai 5k2k? Sellasta ite ootan et LG saa tulemaan ulos niitä, ja sit 5090 kaveriksi :) täältä jää sit yks 4090 suprimi myyntiin mikä kulkee ihan ok :)
Mun mielestä loogisempi nimi on tuo 4k UW, 5120*2160p. :D Samaa ajatusta täällä, nyt BF täytyy koittaa saada 34" UW oledi hommattua. Nykyinen IPS on ok, mutta halu nähdä onko se OLED sellainen wow ilmiö kuin väitetään. Josko tippuisi joku tuoreempi paneeli BF:nä alennukseen sopivasti niin voisi itselle poimia sen pukinkonttiin. 5090 sitten seuraavana vuonna sekä uusi näyttö sitten jos kyllästyyy tähän 4090/oled comboon.

EDIT: Ja noihin vrami keskusteluihin, 24gb menee jo parissa pelissä että hulina käy, saisi olla enemmän tarjolla. Esim Warzone syö koko 4090 muistin heittämällä. Enemmänkin kysyntää olisi mutta loppuu auttamatta kesken, pakko ajella 80% usagella kun tuo laskee allocated vramin mukaan jotenkin oudosti :D Tuli kokeiltua 90% loadilla, hörppäsi 25,5gb ja diashow alkoi, tai no kyllähän se pyörii mutta lagaa minkä kerkeää kun hakee ramista noita vähän väliä. Tiedä sitten mikä on kyseisen pelin maksimi vram usage, 30gb?
 
Viimeksi muokattu:
EDIT: Ja noihin vrami keskusteluihin, 24gb menee jo parissa pelissä että hulina käy, saisi olla enemmän tarjolla. Esim Warzone syö koko 4090 muistin heittämällä. Enemmänkin kysyntää olisi mutta loppuu auttamatta kesken, pakko ajella 80% usagella kun tuo laskee allocated vramin mukaan jotenkin oudosti :D Tuli kokeiltua 90% loadilla, hörppäsi 25,5gb ja diashow alkoi, tai no kyllähän se pyörii mutta lagaa minkä kerkeää kun hakee ramista noita vähän väliä. Tiedä sitten mikä on kyseisen pelin maksimi vram usage, 30gb?
Tämä on ilmeisesti kyseisen pelin kohdalla ihan tarkoituskin, että se käyttää kaiken muistin tekstuurien varastointiin:


Asetuksissa ilmeisesti sitten on VRAM Scale Target -asetus, jos ei halua pelin rohmuavan kaikkea muistia tai jos peli alkaa tahmaamaan muistin loppumisen vuoksi.
Poikkeus sääntöön siis ja "normaaleissa" peleissä pääosin 16GB riittää vielä 4K:lla kaikki herkut päällä (tekstuurimodit yms. sitten toki erikseen). HWU:n testissä pari peliä onnistui viemään enemmän kuin 16GB, Avatar 17,3GB:

 
Mun mielestä loogisempi nimi on tuo 4k UW, 5120*2160p. :D Samaa ajatusta täällä, nyt BF täytyy koittaa saada 34" UW oledi hommattua. Nykyinen IPS on ok, mutta halu nähdä onko se OLED sellainen wow ilmiö kuin väitetään. Josko tippuisi joku tuoreempi paneeli BF:nä alennukseen sopivasti niin voisi itselle poimia sen pukinkonttiin. 5090 sitten seuraavana vuonna sekä uusi näyttö sitten jos kyllästyyy tähän 4090/oled comboon.

EDIT: Ja noihin vrami keskusteluihin, 24gb menee jo parissa pelissä että hulina käy, saisi olla enemmän tarjolla. Esim Warzone syö koko 4090 muistin heittämällä. Enemmänkin kysyntää olisi mutta loppuu auttamatta kesken, pakko ajella 80% usagella kun tuo laskee allocated vramin mukaan jotenkin oudosti :D Tuli kokeiltua 90% loadilla, hörppäsi 25,5gb ja diashow alkoi, tai no kyllähän se pyörii mutta lagaa minkä kerkeää kun hakee ramista noita vähän väliä. Tiedä sitten mikä on kyseisen pelin maksimi vram usage, 30gb?
No voi sen kai niinkin ajatella. Näytöt ku tulee saataville ni en tiiä jättäiskö ton 45" 3440x1440 oledin kakkosnäytöksi. Sais kyllä isomman pöydän hommata :).mut 5090 kyllä tulee hommattua. Saattaa tosin alkuun olla aika loppuunmyytyä alkuminuuteilla aina, ja saatikka millon alkaa blokkeja saamaan.
 
Saapa nähdä alkaako hwunboxed sanomaan että 16GB riittää nyt ja aina kun amd:lta ei ole yli 16GB kapasiteetilla tulevia pelikortteja tiedossa toviin.
 
Saapa nähdä alkaako hwunboxed sanomaan että 16GB riittää nyt ja aina kun amd:lta ei ole yli 16GB kapasiteetilla tulevia pelikortteja tiedossa toviin.

Onhan ne nytkin sanonu että 16GB riittää? Ihan oikeaa testiäkin tehneet VRAM käytöstä ja suurimpaan osaan tilanteista 12GB riittää.

Keskiluokan korteille riittää hyvin se 16GB, sitten pitää olla reilusti enemmän vääntöä että muistin määrä on rajoittava tekijä...
 
Onhan ne nytkin sanonu että 16GB riittää? Ihan oikeaa testiäkin tehneet VRAM käytöstä ja suurimpaan osaan tilanteista 12GB riittää.

Keskiluokan korteille riittää hyvin se 16GB, sitten pitää olla reilusti enemmän vääntöä että muistin määrä on rajoittava tekijä...
Äkkiseltään voisi sitten kuvitella loogista olevan, että 12GB riittää 1440p ja 8GB 1080p. 1080p 1/4 osa 4k pikseleistä ja tarvittavien buffereiden ja tekstuurien koko vain neljännes 4k resoluutiosta. Toki siellä gpu:n muistissa on muutakin kuin buffereita ja tekstuureita niin sen vuoksi vaikka 12GB ja 8GB eikä suoraa jakolaskua pikseleiden määrän pohjalta.
 
Saapa nähdä alkaako hwunboxed sanomaan että 16GB riittää nyt ja aina kun amd:lta ei ole yli 16GB kapasiteetilla tulevia pelikortteja tiedossa toviin.

En kyllä HWU:lla ole huomannut, että suosittaisiin jotain valmistajaa. Kaikki on saaneet osakseen ansaittua kritiikkiä tarvittaessa. Kuten Nvidia korttien muistimäärän osalta, AMD FSR toteutuksistaan ja markkinointimokistaan ym ym.

Äkkiseltään voisi sitten kuvitella loogista olevan, että 12GB riittää 1440p ja 8GB 1080p. 1080p 1/4 osa 4k pikseleistä ja tarvittavien buffereiden ja tekstuurien koko vain neljännes 4k resoluutiosta. Toki siellä gpu:n muistissa on muutakin kuin buffereita ja tekstuureita niin sen vuoksi vaikka 12GB ja 8GB eikä suoraa jakolaskua pikseleiden määrän pohjalta.

Tekstuurien kokoon vaikuttaa valittu tekstuurien laatu, ei näytön resoluutio. Kyllä sen paremman tekstuurien laadun huomaa sillä 1080p resollakin. Ikävämpi sitten, jos tekstuureja jää latautumatta, kun kortilta loppuu muisti vaikka muuten tehot riittäisikin hyvään fps:ään.

Edit. Toivon että 8gb muisteja nähtäisiin enää jossain entry level korteissa (ja tuon alle ei kannattaisi kortteja enää tehdä), ja siitä ylöspäin löytyisi vähintään se 12gb. Mid/High saisi olla se 16gb+.
 
Viimeksi muokattu:
Tekstuurien kokoon vaikuttaa valittu tekstuurien laatu, ei näytön resoluutio. Kyllä sen paremman tekstuurien laadun huomaa sillä 1080p resollakin. Ikävämpi sitten, jos tekstuureja jää latautumatta, kun kortilta loppuu muisti vaikka muuten tehot riittäisikin hyvään fps:ään.
Näytön resoluutio vaikuttaa suoraan tarvittavien tekstuurien kokoihin. Kuvitellaan tilanne missä pelaaja katsoo koko näytön kattavaa taulua 1080p ja 4k resoluutioilla. 1080p pelaaja tarvii 1/4 osan 4k pelaajan tekstuurin pikseleistä että jokaiselle näytön pikselille saadaan uniikki ja näytön kannalta optimaalinen sisältö. Näytön resoluutio vaikuttaa myös ihan suoraan erilaisten puskuerien kokoihin kuten framebuffer, valo/varjo/jne efektit.

Pelienginet optimoivat tekstuurien koon mipmap tasoilla niin, että käytettävä tekstuurin mipmap taso tekstuurista täyttäisi mahdollisimman tarkasti annetut näytön pikselit. Liian pieni mipmap taso==blur, liian iso mipmap taso==pikselit välkkyvät. Se että 1080p pelaaja lataa ultrahighend tekstuurit muistiin ei tarkoita että niitä käytetään kun mipmap tasojen avulla valitaan aina se mipmap taso mikä täyttää näytön pikselit mahdollisimman tarkasti.

 
Viimeksi muokattu:
Näytön resoluutio vaikuttaa suoraan tarvittavien tekstuurien kokoihin. Kuvitellaan tilanne missä pelaaja katsoo koko näytön kattavaa taulua 1080p ja 4k resoluutioilla. 1080p pelaaja tarvii 1/4 osan 4k pelaajan tekstuurin pikseleistä että jokaiselle näytön pikselille saadaan uniikki ja näytön kannalta optimaalinen sisältö. Näytön resoluutio vaikuttaa myös ihan suoraan erilaisten puskuerien kokoihin kuten framebuffer, valo/varjo/jne efektit.

Pelienginet optimoivat tekstuurien koon mipmap tasoilla niin, että käytettävä tekstuurin mipmap taso tekstuurista täyttäisi mahdollisimman tarkasti annetut näytön pikselit. Liian pieni mipmap taso==blur, liian iso mipmap taso==pikselit välkkyvät.


Eikös tuo vaikuta vaan renderöintiin ja sen tekstuurin käsittelyyn? Se tekstuuri pitänee kuitenkin ladata kokonaisuutena sinne näytönohjaimen muistiin mip mappien kera (mip mapping lisää teksuurien kokoa 33%), sitten siitä käytetään renderöidessä lähintä kokoon sopivaa osaa, onko se sitten se alkuperäinen tekstuuri tai jokin mip mapattu versio riippuen kohteen etäisyydestä jne. Muutenhan joutuisi odottelemaan tekstuurin latautumista aina, kun jonkin kohteen etäisyys ruudulla muuttuisi.
 
Eikös tuo vaikuta vaan renderöintiin ja sen tekstuurin käsittelyyn? Se tekstuuri pitänee kuitenkin ladata kokonaisuutena sinne näytönohjaimen muistiin mip mappien kera (mip mapping lisää teksuurien kokoa 33%), sitten siitä käytetään renderöidessä lähintä kokoon sopivaa osaa, onko se sitten se alkuperäinen tekstuuri tai jokin mip mapattu versio riippuen kohteen etäisyydestä jne. Muutenhan joutuisi odottelemaan tekstuurin latautumista aina, kun jonkin kohteen etäisyys ruudulla muuttuisi.
Ei tarvi ladata kokonaisuutena muistiin. Megateksturointi/virtuaalitekstuurit jo mennävuosina muutti tuon "ladataan kaikki varmuuden vuoksi muistiin" paradigman siihen, että ladataan se mitä tarvitaan.

Uusista engineistä ue5 tukee 8k tekstuureita kaikille kappaleille. Lennosta ladataan muistiin se mip taso mitä juuri sillä hetkellä tarvitaan. UE5 käyttää melko tiukkaa pakkausta levyllä, cachettaa vähemmän pakattuja keskusmuistissa ja vähiten pakatut versiot gpu muistissa. UE5 mennyt niin pitkälle, että ladattu geometriakin voidaan optimoida näytön resoluution mukaan(nanite, "kolmio" per pikseli, 4x pikseleitä 4k näytöllä versus 1080p näyttö). UE5:sta rajoittaa levytila tekstuurien ja geometrian suhteen, käytetty striimausteknologia priima.

Vaikka lähtisi virheellisestä olettamasta liikkeelle, että kaikki pitää ladata muistiin(ei striimausta) niin voidaan kentän latausaikana valita eri mipmap tasot 4k monitorille ja 1080p monitorille.

Toki pelaaja voi tehdä tyhmästi ja pakottaa muistiin tekstuurin mipmap tasoja mitä ei tarvita tai joku peli voi olla täysin aivokuolleesti koodattu. Tästä onneksi päästään eroon ajan kanssa kun ue5 esimerkiksi tekee asiat todella fiksusti.
 
Viimeksi muokattu:
G7 on toki kalliimpaa, mutta olen sitä mieltä, että jos kortti maksaa yli tonnin tänä päivänä, niin sillä rahalla pitäisi saada kovat speksit kokonaisuudessaan. Se lisä 4 Gt muistia ei nyt mahdottoman kalliiksi tule ja muistiväylän leveyskin nousisi kivasti 256bit --> 320bit. Jatkuvasti näyttää sille, että pelit 4K resoluutiolla vaatii enenevissä määrin videomuistia ja AMD:llahan on jo 20 Gt G6 kortti alle tonnilla myynnissä sekä AMD tarjoaa 16 gigaa jo viidensadan euron keskisarjan 7800 XT:ssä.

Jos muistimäärä on se THE vaatimus ja AMD:llä on, niin sittenhän ratkaisu on ostaa se AMD:n kortti. Käytännössä kuitenkaan, johtuen nykykonsoleiden pienestä muistimäärästä, 16 gigaa on pelinäyttikselle erittäin tarpeeksipaljon muistia.
 
Onhan tuo 16 Gt älyttömästi muistia. Käytäntö vaan on osaoittanut, että muistivaatimukset kasvavat suhteessa laskantatehoon. Joten jos nyt 16 Gt on optimi, niin jos kehitys jatkuu samalaisena, niin jossain vaiheessa tuo 16 Gt tulee vaatimaan tekstuurien laadun karsimista. Jos siis pelinkehittäjät jatkaa samaa rataa. Toki tekstuurien karsiminen harvoissa peleissä ei ole mikään maailmanloppu. En olisi kuvitellut, että VRAM vaatimukset kasvaa näin paljon. Jos 4060ti löytyy 16 Gt muistilla, niin ihan syytä olla huolissaan 5080 16 Gt muistin riittävuudestä lähivuosina.
 
Viimeksi muokattu:
Tulee kyllä olemaan varmaan joku 2000$ MSRP kortti tuo 5090, jos nuo kopiten viimesimmät speksit pitää paikkansa. Siihen Suomen verot ja lisät päälle, niin... Pulloja lähettävä keräämään juu.

:scrackmakeup:


5080 sitten se "tonnin" kortti ja myöhemmin ehkä joku 5080Ti 1500$ hintaan.
 
Järkyttävä hinta olisi kyllä. Pitää varmaan tyytyä 3080 -> 5080 päivitykseen 5090:n sijaan jos noin on. Kai silläkin näitä uusia 4K Oledeja pyörittelee peleissä 120hz tietämillä joka riittäisi itselle.
 
Olisi kyllä hienoa jos tuon 5080 hinta olisi jossahin 800€ huikkeilla. Ei vaan taida olla kovin realistinen toive
 
Kuinkahan paljon tuossa oikeasti on painetta nostaa hintoja? Ainakin valmistusprosessi about samanhintainen kuin 4090 kanssa(tsmc 4 variantti edelleen, tuttu prosessi, hyvät saannot?). Tietty gddr7 muistit voi olla vähän kalliimpia versus gddr6x? tosin ei kai gddr6x muistitkaan halpoja olleet versus gddr6? 5090:ssa enempi hintapainetta kuin 5080 jos 5090 512bit muistiväylä ja 32GB muisti toteutuu versus 5080 256bit/16GB.

60x0 sarjassa tulee varmaan hintapainetta kunnolla sisään kun varmaan tsmc3 ja chiplet-ratkaisu missä iso cache ja io eri piirillä kuin logiikka. io ja cachet ei skaalaannu niin chiplet lienee lähelle pakollinen. Erillistä cache piiriähän on huhuttu konesali rubiniin mikä tulee 2026.
 
Kuinkahan paljon tuossa oikeasti on painetta nostaa hintoja? Ainakin valmistusprosessi about samanhintainen kuin 4090 kanssa(tsmc 4 variantti edelleen, tuttu prosessi, hyvät saannot?). Tietty gddr7 muistit voi olla vähän kalliimpia versus gddr6x? tosin ei kai gddr6x muistitkaan halpoja olleet versus gddr6? 5090:ssa enempi hintapainetta kuin 5080 jos 5090 512bit muistiväylä ja 32GB muisti toteutuu versus 5080 256bit/16GB.

60x0 sarjassa tulee varmaan hintapainetta kunnolla sisään kun varmaan tsmc3 ja chiplet-ratkaisu missä iso cache ja io eri piirillä kuin logiikka. io ja cachet ei skaalaannu niin chiplet lienee lähelle pakollinen. Erillistä cache piiriähän on huhuttu konesali rubiniin mikä tulee 2026.
Sen verran ovat nähneet miten paljon porukka on valmis maksamaan kortista, niin hinta on aivan varmasti kovempi kuin 4090 kortilla.
 
Sen verran ovat nähneet miten paljon porukka on valmis maksamaan kortista, niin hinta on aivan varmasti kovempi kuin 4090 kortilla.
Toki hinta laitetaan siihen pisteeseen mikä optimoi nettotuloksen. Varmaan aika kova kysyntä noille korteille myös pelaajien ulkopuolelta, kun moni yritys laittaa ai-devaajien työkoneisiin+ci farmiin 5090:sta sen sijaan että ostaisivat 3xkalliimman pro kortin tuplamuistilla. Työntekijän palkka isompi kulu vuodessa kuin gpu ja työntekijän tuottavuus voi nousta paremmilla työkaluilla.

Kaikki muu kuin pitkän aikavälin tuloksen optimointi olisi osakkeenomistajien kusetusta.
 
Toki hinta laitetaan siihen pisteeseen mikä optimoi nettotuloksen. Varmaan aika kova kysyntä noille korteille myös pelaajien ulkopuolelta, kun moni yritys laittaa ai-devaajien työkoneisiin+ci farmiin 5090:sta sen sijaan että ostaisivat 3xkalliimman pro kortin tuplamuistilla. Työntekijän palkka isompi kulu vuodessa kuin gpu ja työntekijän tuottavuus voi nousta paremmilla työkaluilla.

Kaikki muu kuin pitkän aikavälin tuloksen optimointi olisi osakkeenomistajien kusetusta.

Täähän se syy näiden korttien (yksityishenkilön kannalta) älyttömiin hintoihin on. Ei paljoa paina esim. tonnin hyppy hinnassa jollekkin (satoja) miljoonia rahoitusta saaneille firmoille. Siinä ei se pelaajamäärään suhteutettu prosentti tai alle pelaajista, jotka näitä lippulaivakortteja ostaa merkitse mitään.
 
Täähän se syy näiden korttien (yksityishenkilön kannalta) älyttömiin hintoihin on. Ei paljoa paina esim. tonnin hyppy hinnassa jollekkin (satoja) miljoonia rahoitusta saaneille firmoille. Siinä ei se pelaajamäärään suhteutettu prosentti tai alle pelaajista, jotka näitä lippulaivakortteja ostaa merkitse mitään.
Kavereilla on pikkupulju jonka budjetti ei edes miljoonissa. Silti niillä on 2x4090 mallien hienosäätöä varten. En ylläty jos ne päivittää 5090:een. Niille pro kortit eikä pilvi ole bang4buck mutta 4090:et rallattaa.
 
Sen verran ovat nähneet miten paljon porukka on valmis maksamaan kortista, niin hinta on aivan varmasti kovempi kuin 4090 kortilla.
Näinpä, ei ole hinta laskenut oikein yhtään tuon elinkaaren aikana. Vähän yllättävää, jos on alle 1999 taalaa MSRP.

Täähän se syy näiden korttien (yksityishenkilön kannalta) älyttömiin hintoihin on. Ei paljoa paina esim. tonnin hyppy hinnassa jollekkin (satoja) miljoonia rahoitusta saaneille firmoille. Siinä ei se pelaajamäärään suhteutettu prosentti tai alle pelaajista, jotka näitä lippulaivakortteja ostaa merkitse mitään.
Olis kyllä mielenkiintoista nähdä jotain statseja siitä kuinka paljon 3090 ja 4090 on myynyt firmojen työasemakäyttöön ja minkäkokoisten firmojen.

Uskoisin, että puhtaaseen tekoälykäyttöön noita menee lähinnä opiskelijoille, harrastelijoille, freelancereille ja pienyrityksille. Olettaisin että isommat yritykset ostaa ehtoja työasemakortteja (saanevat paljousalennusta Nvidialta?) ellei sitten ihan A100/H100 rautaa tai vuorkaavat laskentatehoa pilvestä. Avaa paljon enemmän mahdollisuuksia se isompi muisti ja korttien klusterointimahdollisuudet.
 
Vaikka olis 600W koko ajan pakasta vedettynä(en usko, ehkä jossain benhmark:ssa saa tappiin) niin aina voi vähän alikellottaa ja lämmöntuotto vähenee oleellisesti. 4090 ei tuota koko ajan speksattua maksimilämpöä. 4090 vastaa alikellotukseen tosi hyvin minimaalisella fps häviöllä. Eiköhän 5090 vastaa hyvin myös alikellotukseen.

imho. hyvä jos on maksimitehokas. Aina voi alikellottaa jos ei halua maksimeita. Todennäköisesti myös erittäin hiljainen jos on 600W speksattu jäähy ja alikellottamalla saa lämmöntuoton esim. 350W pintaan.
 
Vaikka olis 600W koko ajan pakasta vedettynä(en usko, ehkä jossain benhmark:ssa saa tappiin) niin aina voi vähän alikellottaa ja lämmöntuotto vähenee oleellisesti. 4090 ei tuota koko ajan speksattua maksimilämpöä. 4090 vastaa alikellotukseen tosi hyvin minimaalisella fps häviöllä. Eiköhän 5090 vastaa hyvin myös alikellotukseen.

imho. hyvä jos on maksimitehokas. Aina voi alikellottaa jos ei halua maksimeita. Todennäköisesti myös erittäin hiljainen jos on 600W speksattu jäähy ja alikellottamalla saa lämmöntuoton esim. 350W pintaan.
Kysymys kuuluu että minkäköhän kokonen jööti sieltä tulee koneeseen ku tuon 5090 ostaa? Ei taida mahtua enää keskikokoisiin ATX koppiin kunnolla.
 
Viiden kilon siika sieltä tulee, tai isompi.
No ite ostin ton 4090 vähän silläkin, että ite varmaan skippaan ton 5000 sarjan, ei ainakaan ole järkeä siirtyä 4090 -> 5080 ja joku 2500 - 3000e hinta ei houkuta pelinäytönohjaimesta. Kun pitäs seuraavaksi miettiä CPU päivitys.
 
Jep. 1.5v on nyt ollut 4090 ja tarkoitus oli että sen 5v kestää kuten 1080ti jonka aikana skippasin 2xxx ja 3xxx kortit. 3080 olisin ehkä ostanut, mutta mining buumi nosti hinnat niin ylös että jäi väliin.
Täähän se on fiksua oikeasti. Ei enää mene teknologia silleen eteenpäin, että joka generaatiossa tarvis päivittää ellei sitten tee jotain 4060-5080 tms. päivitystä. Oma 3070fe vaihtunee 5090fe:hen. Davinci resolve, skylum luminar neo, topaz video ai sun muut työkalut hyötyy muistista ja tehosta. Melkosen hidasta 8k videoiden ja kuvien editointi nykykoneella kun joku neuroverkoefekti raksuttaa ja raksuttaa.
 
Kova hinku olisi kyllä tuohon 5090 päivittään, kun 4080 loppuu muisti sekä puhti kesken ja 4090 tilanne vähän parempi kun muisti juuri ja juuri piisaa mutta puhti loppuu muuten.

Tosin 3000 euron hinnalla jäisi kyllä kauppaan, jonkun 2300eur voisi vielä maksaa.
 
4090fe msrp julkaisussa tais olla 1599$+verot. Kaupoissa hinnat tietenkin asettuneet sen mukaan mikä kysyntä on + aib malleja missä msrp korkeampi + järkyttävä inflaatio. Jos tulee hintaa lisää niin veikkaan että max 1999$+verot ja kauppiaat nostaa hintaa sille tasolle millä voitto optimoituu. Jos AI boom nostaa korttien kysyntää niin voi olla vaikea löytää msrp hinnalla kortteja. 1999$ hinta olis jotain 2300e suomen verot ja valuuttakonversion huomioiden.
 
Ja tuo FE hinta joita saa sitten nvidia kaupasta muutamia ne joiden f5 sormi on nopein. Ehkä joku kappale tuffia myös jälkeenmyyjillä. Muut valmistajien kortit sitten 200-1000 kalliimpia.
Oma 4090 on nyt 400 kalliimpi kuin mitä maksoin 1.5v sitten.
Inflaatio laukannut, melkeinpä kaikki kallistunut.
 
Kova hinku olisi kyllä tuohon 5090 päivittään, kun 4080 loppuu muisti sekä puhti kesken ja 4090 tilanne vähän parempi kun muisti juuri ja juuri piisaa mutta puhti loppuu muuten.

Tosin 3000 euron hinnalla jäisi kyllä kauppaan, jonkun 2300eur voisi vielä maksaa.
Tämä on itellä tilanne, 4k näyttö+4080 niin uusissa peleissä DLSS monesti performance tilassa jos haluaa RT käyttää. Tehoja kaipaisi lisää, veikkaan vaan että hinnat menee kipurajan yli.

Pitää pelailla vanhempien pelien backlogia jota riittää, joten ongelma ei ole suuri.
 
Viimeisen kahden vuoden aikana inflaatio on ollut alle 7%, eli ei taida selittyä moinen nousu inflaatiolla.
Ei tietenkään kaikki nousu selity inflaatiolla, osa selittyy. Toinen puoli sitä, että Kaupat ja AIB:t hinnoittelee tuotteet sille tasolle mikä maksimoi heidän voitot. Nyt kun huhutaan, että 4090 piirituotanto lopetettu niin hinnat voi nousta myös sen vuoksi, että tarjonta vähenee. Ei ehkä nähdä mitään hyllyntyhjennysalea 4090:en kanssa että saadaan tilaa 5090:lle.

Amerikassa 2022 inflaatio 8%, 2023 inflaatio 4.1%. Tuosta saadaan noille kahdelle vuodelle inflaatioksi yhtensä 1.08*1.041 = 12.3%. Tilastot täältä: Current US Inflation Rates: 2000-2024 Jos inflaatioon oikeasti haluaisi gpu:n kannalta pureutua niin pitäisi ottaa vain ne osat inflaatiosta huomioon mitkä vaikuttavat näyttökortin hintaan. Lienee puolijohteiden valmistuksen hinta, osien hinta, työvoiman hinta, kuljettaminen myyntipaikkoihin, myyvien liikkeiden henkilöstökulut jne.
 
Ei tietenkään kaikki nousu selity inflaatiolla, osa selittyy. Toinen puoli sitä, että Kaupat ja AIB:t hinnoittelee tuotteet sille tasolle mikä maksimoi heidän voitot. Nyt kun huhutaan, että 4090 piirituotanto lopetettu niin hinnat voi nousta myös sen vuoksi, että tarjonta vähenee. Ei ehkä nähdä mitään hyllyntyhjennysalea 4090:en kanssa että saadaan tilaa 5090:lle.

Amerikassa 2022 inflaatio 8%, 2023 inflaatio 4.1%. Tuosta saadaan noille kahdelle vuodelle inflaatioksi yhtensä 1.08*1.041 = 12.3%. Tilastot täältä: Current US Inflation Rates: 2000-2024 Jos inflaatioon oikeasti haluaisi gpu:n kannalta pureutua niin pitäisi ottaa vain ne osat inflaatiosta huomioon mitkä vaikuttavat näyttökortin hintaan. Lienee puolijohteiden valmistuksen hinta, osien hinta, työvoiman hinta, kuljettaminen myyntipaikkoihin, myyvien liikkeiden henkilöstökulut jne.


Katsoin itse Suomen kuluttajahintaindeksiä, ja täällä inflaatio on tosiaan ollut 121,9/114,0 - 1 = 6,9%. Eli jos kortin hinta on noussut Suomessa 400e niin valtaosa siitä on jotain ihan muuta kuin inflaatiota - elikkä juurikin sitä, että otetaan tuotteesta maksimihinta jolla se vielä saadaan kaupaksi.

 
Katsoin itse Suomen kuluttajahintaindeksiä, ja täällä inflaatio on tosiaan ollut 121,9/114,0 - 1 = 6,9%. Eli jos kortin hinta on noussut Suomessa 400e niin valtaosa siitä on jotain ihan muuta kuin inflaatiota - elikkä juurikin sitä, että otetaan tuotteesta maksimihinta jolla se vielä saadaan kaupaksi.

Nvidian tuotteiden kannalta suomen inflaatio ihan yhdentekevä. Näyttökortin hintaan vaikuttaa se mitä tsmc laskuttaa, mitä osat maksaa, mitä työvoima aasiassa maksaa, mitä marginaalia AIB ottaa(ei fe mallit) mitä merirahti maksaa jne. Geneerisissä inflaatioluvuissa sekin vika, että niissä on jotain kananmunien hintaa, vuokrien hintaa yms. mukana.
 
Nvidian tuotteiden kannalta suomen inflaatio ihan yhdentekevä. Näyttökortin hintaan vaikuttaa se mitä tsmc laskuttaa, mitä osat maksaa, mitä työvoima aasiassa maksaa, mitä marginaalia AIB ottaa(ei fe mallit) mitä merirahti maksaa jne. Geneerisissä inflaatioluvuissa sekin vika, että niissä on jotain kananmunien hintaa, vuokrien hintaa yms. mukana.
Eipä se msrp ole mihinkään noussut, joten suurin osa tuosta listasta voidaan pyyhkiä samantien pois. Geneerinen inflaatioluku on hyvä verrokki oli se tuote sitten mikä hyvänsä, se kuvastaa vain keskimääräistä hintojen nousua, mitä juurikin listailit hyvin mistä moinen voi johtua. 4090 hinnoilla ei ole muuta tekemistä kuin ahneus ja se hinta missä vielä tavara myy. Rahtikulut ym on merillä luokkaa max muutama kymmenen senttiä per laite....
 

Uusimmat viestit

Statistiikka

Viestiketjuista
283 813
Viestejä
4 879 113
Jäsenet
78 687
Uusin jäsen
OnniBoi83

Hinta.fi

Back
Ylös Bottom