NVIDIA-spekulaatioketju (Blackwell ja tulevat sukupolvet)

Jonkinlaista suorituskykyvertailua 3090:lla 8K-resoluutilla

1599219658233.png

Melkoinen hyppäys esim Controlissa.

Jöö, Control 8k RT dlls of 8fps ja on 57...


Kuinka alhaalta mahtaa samplata.
 
Miltäköhän näyttää minimit.. Toisaalta ei tolla 8k suorituskyvyllä ole mitään merkitystä kenellekkään. 4k120p on paljon pelattavampi kuin 8k60p ja ihmissilmä ei ihan hirveästi yli 4k resoluutiosta hyödy tyypillisillä katselukuvakulmilla. Toki toi on ihan hyvää tietoa niille ketkä tykkäävät SSAA:sta yhdistettynä 4k näyttöresoluutioon.
Tuo on lähinnä osoitus mihin kortti taipuu jopa 8K:lla joka on käsittämättömän vaativa resoluutio nykyraudalla. Eiköhän se ole lähinnä testailua ja demoilua. Vahvasti epäilen että kukaan sitä pystyisi tosissaan käyttämään.

ps. Asus listasi 3090 Strixin omilla sivuilla ja samalla on vilahteluja kortin jäähystä:

1599220459355.png


 
Asuksella on myös video tuosta 3090-kortista:
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
DLSS 2.1 myös tulossa kera VR-tuen sekä dynaamisen resoluution. :hungry:
Dynaaminen reso kyllä hieno juttu, tuota toivoin jo aiemmin. Nyt vaan kun nostaisivat sitä max renderöinti resoluutiota sadan pintaan niin tuohan olisi ihan huippu.

Missä?

edit: jaa jossain redditissä "julkaisseet" jotakin.

"Ultra performance mode" on 9x skaalaus, esim 1440p->4320p (8k) :)
 
Tuo on lähinnä osoitus mihin kortti taipuu jopa 8K:lla joka on käsittämättömän vaativa resoluutio nykyraudalla. Eiköhän se ole lähinnä testailua ja demoilua. Vahvasti epäilen että kukaan sitä pystyisi tosissaan käyttämään.

ps. Asus listasi 3090 Strixin omilla sivuilla ja samalla on vilahteluja kortin jäähystä:

1599220459355.png


TUF:issa 2x8-pin ja Strixissä 3x8-pin virtaliittimet. Suositusvirtalähdekin TUF 750W ja Strix 850W. Eli joidenkin mallien kanssa menisi ihan nykyisillä piuhoilla ja powerilla (jos haluaa suosituksia totella). Jos 3080 osoittautuu tarpeeksi merkittävästi 2080 Ti:tä tehokkaamaksi puolueettomissa testeissä niin voisi jonkun tilailla. Tietty näppärää olisi jos ei tarttis alkaa metsästämään uusia sopivan värisiä hihallisia kaapeleita.
 
DLSS:stä nyt niin taas höpistään, on vaan melko rajoitettuaollut tuki reaalimaailmassa. Esim. Ultra widea ei ole tuettu kaikissa peleissä DLSS:n osalta. Nytkö sitten on kaikki hyvin ja mansikoita kaikilla? Kaikki resot tuettuna kunhan tulee omistamaan 30XX kortin? En oikein jaksa uskoa...
 
TUF:issa 2x8-pin ja Strixissä 3x8-pin virtaliittimet. Suositusvirtalähdekin TUF 750W ja Strix 850W. Eli joidenkin mallien kanssa menisi ihan nykyisillä piuhoilla ja powerilla (jos haluaa suosituksia totella). Jos 3080 osoittautuu tarpeeksi merkittävästi 2080 Ti:tä tehokkaamaksi puolueettomissa testeissä niin voisi jonkun tilailla. Tietty näppärää olisi jos ei tarttis alkaa metsästämään uusia sopivan värisiä hihallisia kaapeleita.
Muistaakseni Asus sanonut että 3090 Strixiin tulisi 400w power limit kun taas TUF on todennäköisesti 350 tai 375w max power limitillä jolloin 2x8 riittää.
 
DLSS:stä nyt niin taas höpistään, on vaan melko rajoitettuaollut tuki reaalimaailmassa. Esim. Ultra widea ei ole tuettu kaikissa peleissä DLSS:n osalta. Nytkö sitten on kaikki hyvin ja mansikoita kaikilla? Kaikki resot tuettuna kunhan tulee omistamaan 30XX kortin? En oikein jaksa uskoa...
DLSS 2.0 tukee ultrawideä ja muutenkin resoluutioita erittäin laajalti. En tiedä onko alarajaa olemassa mutta 720p - 8k ainakin tuettu.

Pelituki ollut melko rajoitettua. Nyt syksyllä muutama iso peli saamassa tuen (COD, Cyberpunk, Fortnite, Watch dogs), muuten tulevaisuus toki epävarma.
 
Saako muuten DLSS kanssa valita mistä lähtöpisteestä se haluttu resoluutio skaalataan? Eli jos haluan esim. 1440p lopputuloksen, voinko päättää että se on upscalettu 1080p:stä eikä esim. 720p:stä?
 
DLSS 2.0 tukee ultrawideä ja muutenkin resoluutioita erittäin laajalti. En tiedä onko alarajaa olemassa mutta 720p - 8k ainakin tuettu.

Pelituki ollut melko rajoitettua. Nyt syksyllä muutama iso peli saamassa tuen (COD, Cyberpunk, Fortnite, Watch dogs), muuten tulevaisuus toki epävarma.
jensseni oli sitä mieltä että 100+ pellii kehitteillä dlss tukea...oli kyllä keittiössä.
 
Saako muuten DLSS kanssa valita mistä lähtöpisteestä se haluttu resoluutio skaalataan? Eli jos haluan esim. 1440p lopputuloksen, voinko päättää että se on upscalettu 1080p:stä eikä esim. 720p:stä?

Peleissä on yleensä DLSS-moodeja, esim. quality, balance, performance, jotka osuvat johonkin osuuteen natiiviresoluutiosta. Jos natiiviresoluutio on 4K, niin nämä voisi olla esim. 3200x1600, 2560x1440 ja 1920x1080.
 
Peleissä on yleensä DLSS-moodeja, esim. quality, balance, performance, jotka osuvat johonkin osuuteen natiiviresoluutiosta. Jos natiiviresoluutio on 4K, niin nämä voisi olla esim. 3200x1600, 2560x1440 ja 1920x1080.
en ole varma mutta quality 1440p on ehkä 1080p skaalattuna.
 
Saako muuten DLSS kanssa valita mistä lähtöpisteestä se haluttu resoluutio skaalataan? Eli jos haluan esim. 1440p lopputuloksen, voinko päättää että se on upscalettu 1080p:stä eikä esim. 720p:stä?
Riippuu vähän pelistä, mutta parhaimillaan kolme vaihtoehtoa, 50%, ~58%, ~67%. 1440p resolla noi tarkoittaa 720p, 836p ja 960p. Joissain peleissä on vain yksi näistä tarjolla, esim Minecraftissa näin.

Control pieni poikkeus, siinä pystyy vapaasti kikkailemaan conffitiedostosta maksimissaan ~93,3% asti, eli 1344p -> 1440p.

Jos natiiviresoluutio on 4K, niin nämä voisi olla esim. 3200x1600, 2560x1440 ja 1920x1080.
1440p, 1252p, 1080p
 
DLSS 2.0 tukee ultrawideä ja muutenkin resoluutioita erittäin laajalti. En tiedä onko alarajaa olemassa mutta 720p - 8k ainakin tuettu.

Pelituki ollut melko rajoitettua. Nyt syksyllä muutama iso peli saamassa tuen (COD, Cyberpunk, Fortnite, Watch dogs), muuten tulevaisuus toki epävarma.

Sinänsä DLSS:n kanssa riittäisi kun kaikki isoimmat (=raskaimmat) pelit olisi tuettuna, eli ei tarvitse jokaista kymmenestä tuhanneista vuosittain julkaistusta indiestä tukea. Harmittavasti tuo isoimmat pelit tuettuna on vielä kaukana todellisuudesta eikä siihen varmaan päästä. Jo pelkästään AMD sponsoroi vuosittain aina useampaa isoa julkaisua ja näihin tuskin kovin tasaisesti DLSS tukea tulee.

Tuo DLSS 2.0 kyllä sai allekirjoittaneen uskomaan tekniikkaan pois lukien tuo, kuinka harvoin pelit sitä tukevat. Se ensimmäinen iteraatio oli resoluutiorajoitteinen eikä usein kovin hyvälaatuinen, mutta toisesta iteraatiosta tähän asti vain hyvää sanottavaa niiden muutaman pelin osalta, mitkä tuota tukevat.

Tuettujen pelien osalta tulossa kyllä kovia DLSS julkaisuja tässä syksyllä kunhan saavat tuen jo julkaisuun mukaan, eikä jälkikäteen päivityksenä. Vielä tuohon pitäisi saada mm. Assassin's Creed: Valhalla joka tuskin ihan kevyesti pyörii jos aikaisemmista osista voi päätellä, mutta se on taas AMD:n peli.
 
Tuettujen pelien osalta tulossa kyllä kovia DLSS julkaisuja tässä syksyllä kunhan saavat tuen jo julkaisuun mukaan, eikä jälkikäteen päivityksenä. Vielä tuohon pitäisi saada mm. Assassin's Creed: Valhalla joka tuskin ihan kevyesti pyörii jos aikaisemmista osista voi päätellä, mutta se on taas AMD:n peli.
Valhallan suhteen on toivoa että siirtyvät vihdoin DX11:sta Vulkaniin. Ainakin samalla enginellä tehty Ghost Recon peli päivitettiin Vulkaniin julkasun jälkeen ja fps parani ihan kivasti.
 
DLSS:stä nyt niin taas höpistään, on vaan melko rajoitettuaollut tuki reaalimaailmassa. Esim. Ultra widea ei ole tuettu kaikissa peleissä DLSS:n osalta. Nytkö sitten on kaikki hyvin ja mansikoita kaikilla? Kaikki resot tuettuna kunhan tulee omistamaan 30XX kortin? En oikein jaksa uskoa...
Pelintekijästä kiinni täysin. Nvidian materiaalien mukaan toi tukee sitä että sille syötetään suht mielivaltainen pisteparvi väri, etäisyys ja nopeusarvoja joiden perusteella se sit arpoo täyden resoluution kuvan ulos. Tossa 2.1 versiossa se pisteparven tiheyskin voi vaihtua vaikka joka ruutu ja silti toimii.
 
Eihän tuota DLSS:ää tosiaan mihinkään tein itse ja säästin -indiepeliin tarvitse, kun ne pyörii ilmankin. Kyllähän näistä viimeaikojen raskaimmista peleistä tuota on alkanut jo löytymään, Control, Metro, Tomb Raider, jne.
 
3080 ja paritus suhde dell s2721dgh ja 4700x lissu siihen--avot
se maksanee saman kuin 2080ti 3kk aikaisemmin.
 
3070 ostoa vähän haittaa se että 3080 on aika lineaarinen hinta-laatu suhde, maksat enemmän ja saat saman verran enemmän plus kestää pitemmälle tulevaisuuteen.
antaa sen 1-2 vuoden lisää käytännössä.
jensseeni firman perussetti osta enempi saa enempi.
 
Viimeksi muokattu:

Eihän tää tee ees tiukka ajella Seasonic Focus+ Gold 80 650w kanssa tuota 3080.. Ei ehkä kellotusvaraa kauhiasti jää

Tuo laskuri näyttää ihan mitä sattuu. Laitoin omat osani siihen ja antoi suositukseksi 850W ja väittää kulutuksen olevan jotain yli 700W. Tässä on tää 600W PSU ollut iloisesti kiinni vuosikaudet, kone vie varmaan jotain 350W pintaan seinästä näyttöineen päivineen.

edit: Näköjään kellotusten lisääminen heittää tuon laskurin ihan päälaelleen noiden kulutusten kanssa
 
Tuo laskuri näyttää ihan mitä sattuu. Laitoin omat osani siihen ja antoi suositukseksi 850W ja väittää kulutuksen olevan jotain yli 700W. Tässä on tää 600W PSU ollut iloisesti kiinni vuosikaudet, kone vie varmaan jotain 350W pintaan seinästä näyttöineen päivineen.
++1+5 tämä.
 
3070 ostoa vähän haittaa se että 3080 on aika lineaarinen hinta-laatu suhde, maksat enemmän ja saat saman verran enemmän plus kestää pitemmälle tulevaisuuteen.

Riippuu varmaan ihan myyntihinnasta. Itse esim. kun pidän siinä 500 euron paikkeilla olevaa korttia aikalailla maksimihintana mitä aion näytönohjaimesta maksaa, joten jos tuo 3080 tulee olemaan reilusti kalliimpi ei se lisäsuorituskyky enää ainakaan omalla kohdalla asiaa muuta.

Seuraava sukupolvi, kun tulee taas olemaan jokatapauksessa nopeampi.
 
Tuo laskuri näyttää ihan mitä sattuu. Laitoin omat osani siihen ja antoi suositukseksi 850W ja väittää kulutuksen olevan jotain yli 700W. Tässä on tää 600W PSU ollut iloisesti kiinni vuosikaudet, kone vie varmaan jotain 350W pintaan seinästä näyttöineen päivineen.

edit: Näköjään kellotusten lisääminen heittää tuon laskurin ihan päälaelleen noiden kulutusten kanssa
Joo itekki testasin tota. 580w antaa kulutukseks. En edes tainnu ihan kaikkea muistaa merkata tuohon. Todellinen kulutus kokoonpanollani on ~430w
 
Spekulaatiota miten tulee 3070 8 GB muisti riittämään seuraavat 4 vuotta? 1440p lähinnä mut satunnaisesti 4k telkkarissakin. Ainut seikka joka vähän mietityttää hankinnassa, myös 650W virtalähde pitäis riittää? Tulevien konsolien vaikutus muistivaatimuksiin?
 
Riippuu varmaan ihan myyntihinnasta. Itse esim. kun pidän siinä 500 euron paikkeilla olevaa korttia aikalailla maksimihintana mitä aion näytönohjaimesta maksaa, joten jos tuo 3080 tulee olemaan reilusti kalliimpi ei se lisäsuorituskyky enää ainakaan omalla kohdalla asiaa muuta.

Seuraava sukupolvi, kun tulee taas olemaan jokatapauksessa nopeampi.
20xx kanssa 2060 oli pitkään paras hinta-laatu suhde kortti 350€ paikkeilla. Oliskin erikoista jos se onkin 750€ paikkeilla tällä kertaa.
Kaippa se vain tarkoittaa että ne joilla on varaa jättävät 3070 suosiolla välistä.
 
Spekulaatiota miten tulee 3070 8 GB muisti riittämään seuraavat 4 vuotta? 1440p lähinnä mut satunnaisesti 4k telkkarissakin. Ainut seikka joka vähän mietityttää hankinnassa, myös 650W virtalähde pitäis riittää? Tulevien konsolien vaikutus muistivaatimuksiin?
no riittää jos 4k asetukset ei tarvitse olla max all settings mutta silloin suunta on 3080, itse olen jo päättänyt ja päädyn 3080 malliin.
650w riittää jopa 3080, ainakin tuo psu nettisivu antaa ihan harhaanjohtavaa tietoa kulutuksista.
 
Fiksuahan bisnesmielessä on myydä tehokkaita kortteja siihen myyntihetkeen, mutta jotka käyvät pieneksi seuraavissa sukupolvissa. Muutenkin epäilen, että varsinkin tämä hinnoittelupolitiikka voi olla sitäkin, että nvidia haluaa mieluummin myydä uusia kortteja pienemmällä katteella, kuin vauhdittaa käytettyjen korttien myyntiä. Nythän varsinkin 1000-sarjan korteille kävi niin, että käyttöarvo on melkein isompi kuin rahallinen arvo. Todennäköisesti oma 1080ti blokkeineen jää kaappiin varakortiksi. Tosin mikään kiirehän tässä nyt ei ole, ja vuodenvaihteessa katsellaan onko 3080ti vai mikä tämän nykyisen seuraaja.
 
Fiksuahan bisnesmielessä on myydä tehokkaita kortteja siihen myyntihetkeen, mutta jotka käyvät pieneksi seuraavissa sukupolvissa. Muutenkin epäilen, että varsinkin tämä hinnoittelupolitiikka voi olla sitäkin, että nvidia haluaa mieluummin myydä uusia kortteja pienemmällä katteella, kuin vauhdittaa käytettyjen korttien myyntiä. Nythän varsinkin 1000-sarjan korteille kävi niin, että käyttöarvo on melkein isompi kuin rahallinen arvo. Todennäköisesti oma 1080ti blokkeineen jää kaappiin varakortiksi. Tosin mikään kiirehän tässä nyt ei ole, ja vuodenvaihteessa katsellaan onko 3080ti vai mikä tämän nykyisen seuraaja.
no kyllä ne pelit tulee perussetiltään olemaan ps5 xbox taso.
nämä 3000 sarja tulee riittämään hyvin.
tulevaisuus on tietenkin nopeampi, muuten kehitys pysähtyy.
 
Puoliso haluaisi kovasti tuon rtx 3080 mutta vähän siinä ja siinä riittääkö laadukkaan seasonicin 650w virtalähde kun prosessorina amd ryzen 3900x. Mitä katsonut niin osassa suositellaan vähintään 650w virtalähdettä ja osassa enemmän.

Täytyy varmaan odottaa hardware unboxed arvostelua jossa käydään läpi kuinka paljon pelikäytössä menee virtaa.
 
Laitoin piruuttani tuollaisen tilaukseen:


Näkee reaaliaikaisen virrankulutuksen kännyappilla. Virrankulutus näillä uusilla korteilla ei huolestuta koska 1200W superkukkanen mutta ihan mielenkiinnosta että paljonko laite nyppää seinästä.
 
Puoliso haluaisi kovasti tuon rtx 3080 mutta vähän siinä ja siinä riittääkö laadukkaan seasonicin 650w virtalähde kun prosessorina amd ryzen 3900x. Mitä katsonut niin osassa suositellaan vähintään 650w virtalähdettä ja osassa enemmän.

Täytyy varmaan odottaa hardware unboxed arvostelua jossa käydään läpi kuinka paljon pelikäytössä menee virtaa.
seasonic gold ja parempi antaa enemmän kuin 650w tehoa.
nopeasti sanoisin riittää kun et rupea elvistelemään kellotuksilla.
ja et laita 10 hdd ssd asemaa ja 100rgb nauhaa, valoja
 
Viimeksi muokattu:
Puoliso haluaisi kovasti tuon rtx 3080 mutta vähän siinä ja siinä riittääkö laadukkaan seasonicin 650w virtalähde kun prosessorina amd ryzen 3900x. Mitä katsonut niin osassa suositellaan vähintään 650w virtalähdettä ja osassa enemmän.
Jos ottaa gpun irti koneesta paljonko koko systeemi vie virtaa kun cpu:ta rasitetaan?
 
Laitoin piruuttani tuollaisen tilaukseen:


Näkee reaaliaikaisen virrankulutuksen kännyappilla. Virrankulutus näillä uusilla korteilla ei huolestuta koska 1200W superkukkanen mutta ihan mielenkiinnosta että paljonko laite nyppää seinästä.
mutta tuo yleishyödyllinen,vaarana toki addictoituminen noihin tarkistuksiin.
 
Täällä imasee 7960x@5GHz(16/32 core) ja 980Ti 1600MHz/1.28vcore esim flight simulator 2020:ssä n. 600-700 wattia seinämittari. n. 300-350W näyttää afterburner näyttiksen kulutukseksi.

Ehkä jotain osviittaa antaa?
 
Tuo laskuri näyttää ihan mitä sattuu. Laitoin omat osani siihen ja antoi suositukseksi 850W ja väittää kulutuksen olevan jotain yli 700W. Tässä on tää 600W PSU ollut iloisesti kiinni vuosikaudet, kone vie varmaan jotain 350W pintaan seinästä näyttöineen päivineen.

edit: Näköjään kellotusten lisääminen heittää tuon laskurin ihan päälaelleen noiden kulutusten kanssa
Intel Core i9-7920X NVIDIA GeForce RTX 3090 - PSU Calculator - Build IEhDdh
Ei tuo minusta nyt yli ampuva ole kulutusten suhteen kun nykyselläkin näkee foldinghomea ajaessa 730w tehoja ja olen saanut yli 900w revittyä prime + karvarinkula yhdistelmällä.
 

Uusimmat viestit

Statistiikka

Viestiketjuista
295 853
Viestejä
5 054 088
Jäsenet
80 993
Uusin jäsen
Wolfwood

Hinta.fi

Back
Ylös Bottom