NVIDIA-spekulaatioketju (Blackwell ja tulevat sukupolvet)

Ihmiset jotka kyselee paljonko kokoonpanoni kuluttaa, ostakaa kortti ja jos kone sammuilee, niin ostakaa virtalähde. Tuskin kukaan on viimesiä rahojaan laittamassa korttiin kiinni.
 
Turing ei oikeastaan ollut mitenkään huono. Mutta koska kilpailua ei ollut Nvidia muutti korttien nimiä pykälällä ja sai niin hinnat ylös.
2080 olisi pitänyt olla 70 sarjan kortti (tu104 piiri), 2070 olisi pitänyt olla 60 sarjan kortti (tu106 piiri) jne...

Hinta nopeus suhde olisi ihan yhtä hyvä kuin
Amperella jos nimet ja hinnat olisi menny samalla tavalla.

2080 (tu104) vs. 3080 (ga102)
2070 (tu106) vs. 3070 (ga104)
 
Jos virtis kovin kireällä niin onhan noita kortteja saanut jo pitkään alivoltitettua ilman tehohävikkiä, ja vielä enemmän jos muutaman prosentin tehonmenetys ei vie yöunia.
 
Turing ei oikeastaan ollut mitenkään huono. Mutta koska kilpailua ei ollut Nvidia muutti korttien nimiä pykälällä ja sai niin hinnat ylös.
2080 olisi pitänyt olla 70 sarjan kortti (tu104 piiri), 2070 olisi pitänyt olla 60 sarjan kortti (tu106 piiri) jne...

Hinta nopeus suhde olisi ihan yhtä hyvä kuin
Amperella jos nimet ja hinnat olisi menny samalla tavalla.

2080 (tu104) vs. 3080 (ga102)
2070 (tu106) vs. 3070 (ga104)
on shiftattu 80 sarja isompi die ga102--flagship die
70 sarja kokonaan ga104....
lisäksi fp32 coreja tuplat---
lopputulema jytkyhytky--katso hitler reaktiovideoja nvidia engineer video tästä ketjusta aiemmin.
 
Todella kova julkaisu tuli edellisen sukupolven pettymyksen jälkeen.
Täytyy vetää nahkatakki päälle ja päivystää koneella myynnin alkaessa.
Tällä hetkellä tuo 3080 tuntuu kovimmalta vaihtoehdolta.
 
Puoliso haluaisi kovasti tuon rtx 3080 mutta vähän siinä ja siinä riittääkö laadukkaan seasonicin 650w virtalähde kun prosessorina amd ryzen 3900x. Mitä katsonut niin osassa suositellaan vähintään 650w virtalähdettä ja osassa enemmän.

Täytyy varmaan odottaa hardware unboxed arvostelua jossa käydään läpi kuinka paljon pelikäytössä menee virtaa.
IO Techin artikkeleista voi katsoa jonkinlaista arviota kulutuksesta, 3900X:n tapauksessa koko testikokoonpanon (3900X + 2080Ti) kulutus pelatessa 316W Testissä AMD Ryzen 9 3900X & Ryzen 7 3700X (Matisse) - io-tech.fi
Prosessorihan ei kovin paljoa loppupeleissä kuluta pelatessa ainakaan GPU rajoitteisissa peleissä. Itsellä on afterburnerin logeissa maksimit GPU:lle 270W ja CPU:lle 120W (kellotettu 2080 Super ja PBO+200Mhz 3900X, pelinä Horizon Zero Dawn).
3080 on 70W suurempi TDP kuin 2080/2080S/2080Ti, joten tuon summan voi aikalailla suoraan lisätä noihin kulutuslukemiin. Nuo virtalähdesuositukset ottavat huomioon jos sekä CPU:ta että GPU:ta rasitettaisiin 100% kuormalla, joka on normaalissa käytössä harvinaista.
 
Todella kova julkaisu tuli edellisen sukupolven pettymyksen jälkeen.
Täytyy vetää nahkatakki päälle ja päivystää koneella myynnin alkaessa.
Tällä hetkellä tuo 3080 tuntuu kovimmalta vaihtoehdolta.
ei kovin --big fuk--gpu 3090 kovin tietysti--mutta kova paketti tämä 3080.
guru3d hilpertti van doorn mielestä tgp 2080ti on sama 320w kuin 3080 ampere tgp----kuluttaisi saman verran.
 
ei kovin --big fuk--gpu 3090 kovin tietysti--mutta kova paketti tämä 3080.
guru3d hilpertti van doorn mielestä tgp 2080ti on sama 320w kuin 3080 ampere tgp----kuluttaisi saman verran.

Ei 3080 ole tietysti kaikista kovin tehoiltaan, mutta julkaisuna mielestäni noista kolmesta kovin. Reilusti tehoja vielä jotenkin järkevään hintaan.
 
Video timestämpätty kohtaan jossa ajellaan 3080:llä Fortniteä ja Geforce Experiencen monitorointi näyttää kellot, lämmöt ja muuta tietoa:

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Olettaen että aidot lukemat taulussa niin Jenssenin puheet, että tuo jäähy pitäis näyttiksen 20 astetta viileämpänä Turing FE:hen verrattuna on snadisti llioiteltuja :)
 
Viimeksi muokattu:
Video timestämpätty kohtaan jossa ajellaan 3080:llä Fortniteä ja Geforce Experiencestä näkyy kellot ja muuta tietoa:

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Olettaen että aidot lukemat taulussa niin Jenssenin puheet, että tuo jäähy pitäis näyttiksen 20 astetta viileämpänä Turing FE:hen verrattuna on snadisti llioiteltuja :)

Tarkoittiko tuo loppu, että nVidia Reflex tarvitsee yhteensopivan hiiren ja näytön?
 
Olettaen että aidot lukemat taulussa niin Jenssenin puheet, että tuo jäähy pitäis näyttiksen 20 astetta viileämpänä Turing FE:hen verrattuna on snadisti llioiteltuja :)
Perinteiseen markkinointityyliin ero on varmaan mitattu 3080:lla, eli 3080 varustettuna 2080 FE:n jäähyllä olis 20c kuumempi, ei niin että 3080 FE on 20c viileämpi kuin 2080 FE.

Vedetään nää setit suolan kanssa, mut 1920MHz GPU:lla kelloja 308w power drawilla ja piirin lämpötila 75c ei mun kirjoissa ois kyllä yhtään pöllömpi tulos.
 
Video timestämpätty kohtaan jossa ajellaan 3080:llä Fortniteä ja Geforce Experiencestä näkyy kellot ja muuta tietoa:

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Olettaen että aidot lukemat taulussa niin Jenssenin puheet, että tuo jäähy pitäis näyttiksen 20 astetta viileämpänä Turing FE:hen verrattuna on snadisti llioiteltuja :)


Videolla näkyy myös samassa kohdassa että "GPU temp target = 83c" ja fan speed = automatic. Eli varmaankin tavoiteltu vain hiljaisuutta tuolla tuuletinprofiililla. Ei tuosta voi vielä päätellä ettei jäähy pystyisi parempaankin.
 
Video timestämpätty kohtaan jossa ajellaan 3080:llä Fortniteä ja Geforce Experiencen monitorointi näyttää kellot, lämmöt ja muuta tietoa:

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Olettaen että aidot lukemat taulussa niin Jenssenin puheet, että tuo jäähy pitäis näyttiksen 20 astetta viileämpänä Turing FE:hen verrattuna on snadisti llioiteltuja :)

no tässä tulee se 93c die throttle juttu mukaan--onhantuo 20c viileämpi.
 
Videolla näkyy myös samassa kohdassa että "GPU temp target = 83c" ja fan speed = automatic. Eli varmaankin tavoiteltu vain hiljaisuutta tuolla tuuletinprofiililla. Ei tuosta voi vielä päätellä ettei jäähy pystyisi parempaankin.

Speksien mukaan Nvidia nosti myös hivenen lämpörajoja, nyt enimmäislämpö on 93c. 2080:lla se on 88c. Joten eiköhän target ole myös hinattu vähän korkeammaksi, jotta tulletinprofiili pysyy hiljaisempana.
 
Vedetään nää setit suolan kanssa, mut 1920MHz GPU:lla kelloja 308w power drawilla ja piirin lämpötila 75c ei mun kirjoissa ois kyllä yhtään pöllömpi tulos.
Samaa mieltä, olettaen ettei tuulettimet huuda hoosiannaa.

Videolla näkyy myös samassa kohdassa että "GPU temp target = 83c" ja fan speed = automatic. Eli varmaankin tavoiteltu vain hiljaisuutta tuolla tuuletinprofiililla. Ei tuosta voi vielä päätellä ettei jäähy pystyisi parempaankin.
Terveet lukemathan nuo, eli en sano että sen edes täytyisi pystyä parempaan. Jenssenin puheet tässä vaan mietitytti. @Raxama voi olla oikeassa, että 2080:n 215W kulutuksella tarkoitettu olevan sen 20c viileämpi.
 
Mielenkiintoinen tuo FE korttien PCB kun ei ole referenssi EKWBn mukaan. Muut valmistajat tekee siis referenssi kortit ilmeisesti erilaisella piirilevyllä jäähdytyksellä ja näihin malleihin saisi sitten EKWB blokkeja. Varmaan bykski tai joku muu valmistaja julkasee suht nopeasti FE kortteihin blokit. Tuollainen 3080 FE blokilla olisi varmaan helppo mahduttaa melkeen mihin vain koteloon kun suhteellisen lyhyt PCB. :think:
 
Lämmöistä viis, siinä on nyt varmistus sille, että nää oikeasti kulkee 2 gigahertsiä tällä Samsungin säästönodellakin. Tuossa siis 1920MHz @1.000V. Olen positiivisesti yllättynyt.
 
Lämmöistä viis, siinä on nyt varmistus sille, että nää oikeasti kulkee 2 gigahertsiä tällä Samsungin säästönodellakin. Tuossa siis 1920MHz @1.000V. Olen positiivisesti yllättynyt.
Näyttäis olevan ylikellotettu tuossa. Oli miten oli, kunhan suorituskyky kohillaan niin minulle ihan sama mitkä kellot.
 
IO Techin artikkeleista voi katsoa jonkinlaista arviota kulutuksesta, 3900X:n tapauksessa koko testikokoonpanon (3900X + 2080Ti) kulutus pelatessa 316W Testissä AMD Ryzen 9 3900X & Ryzen 7 3700X (Matisse) - io-tech.fi
Prosessorihan ei kovin paljoa loppupeleissä kuluta pelatessa ainakaan GPU rajoitteisissa peleissä. Itsellä on afterburnerin logeissa maksimit GPU:lle 270W ja CPU:lle 120W (kellotettu 2080 Super ja PBO+200Mhz 3900X, pelinä Horizon Zero Dawn).
3080 on 70W suurempi TDP kuin 2080/2080S/2080Ti, joten tuon summan voi aikalailla suoraan lisätä noihin kulutuslukemiin. Nuo virtalähdesuositukset ottavat huomioon jos sekä CPU:ta että GPU:ta rasitettaisiin 100% kuormalla, joka on normaalissa käytössä harvinaista.

Puoliso striimaa prosessorilla mutta itse olen sanonut että striimaisi sillä nvencillä niin toimisi pelitkin paremmin. Saa nähdä tuleeko nvenc parannuksia rtx 3000 sarjassa niin siirtyisi siihen. Gtx 1000 sarjan nvenc oli x264 very fast tasolla ja rtx 2000 sarjassa iso hyppäys fast-medium tasolle. Saa nähdä tuleeko vastaava hyppäys rtx 3000 sarjassa....
 
Näyttis olevan ylikellotettu tuossa. Oli miten oli, kunhan suorituskyky kohillaan niin minulle ihan sama mitkä kelot.

Suorituskyky on toki se keskeinen asia, mutta kyllä tästä on tosi mielenkiintoista nähdä myös prosessin laatua kuvaavat tekijät. Jos ja kun Samsung on oikeasti jotakuinkin kilpailukykyinen näyttissirujen tuottajana, niin se on äärimmäisen iloinen uutinen koko markkinalle.

Aiemmin linkkasin EVGA:n Precision X:stä promomatskua, jossa taulussa oli 3090:llä 2150MHz @ 1.1V josta olin vähän epäileväinen että mahtaako olla alkuunkaan realistista. Mutta se voisi siis olla skaalautuvuuden puolesta linjassa tuon Nvidian videon lukemien kanssa. Mutta mahtaa olla neljän slotin jäähyt tarpeen, kun sinne aletaan puskea...
 
20 vuotta on ollut pelikone eikä ole vielä aiemmin tarvinnut rikkoa 500€ rajaa näyttis ostoksilla,aina on löytynyt sopiva vähän huipun alapuolelta tai sitten käytetty huippu vähän myöhemmin,toki muutaman kerran on tullut hypättyä sukupolven yli,kuten nyt 2000 sarja ja olen pelaillut vajaan 400€ 1070 Ti.Kuitenkaan yhtään peliä ei ole jäänyt pelaamatta siksi ettei se pyörisi pelattavasti,tosin en pelaa ollenkaan moninpelihippaa.
Nyt kyllä on pakko rikkoa tuo raja ja reilusti kun taitaa olla kannattavin ostaa 3080
 
Täällä(kin) kun on ollu väittelyä siitä, kilpailevatko näytönohjaimet konsoleiden kanssa, niin tässäpä oma tarinani:
Olen PS5:n ennakkotilannut jo kuukausia sitten, koska vanha PS3 rupeaa pätkimään ja kuulostaa suihkuhävittäjältä, vaikka pölyt on putsattu ja tahnat vaihdettu. Olin myöskin päättänyt päivittää koneeni uuteen tämän syksyn/talven aikana ja ajatellut rahoittaa osan näistä hankinnoista myymällä nykyisen koneeni pakettina custom-looppeineen eteenpäin.
Emäntä tossa jokunen viikko takaperin ehdotti, että josko mun nykyinen kone siirrettäisiin olohuoneeseen mediaPC:nä toimimaan. Aluksi en ollut täysin myyty ajatukselle, koska oletin tarvitsevani selvästi enemmän kapitaalia mm. juuri näytönohjaimeen, mutta näiden hintojen ja ehkä enemmänkin tehojen pikkuhiljaa hahmottuessa (puolueettomia revikoita odotellessa) rupeaa näyttämään enemmän ja enemmän siltä, että PS5 tilaukseni tulen perumaan. Voi olla, että joskus myöhemmin semmoisenkin alennusmyynneistä yksinoikeuspelejä varten hommaan, mutta 95% varmuudella skippaan PS5:n ja lätkäisen nykyisen koneen telkkariin kiinni.
Jos järkevä tehonlisäys nykyiseen 1080 Ti:hin olisi maksanut esim. 1200€, niin vaikka uuden koneen olisin joka tapauksessa ostanut, olisi nykyinen mennyt myyntiin ja tilalle tullut konsoli (olettaen siis, että vanhan koneeni myymällä olisi pleikkarin oston jälkeen jäänyt plussalle). Omalla kohdallani tämä julkaisu kilpaili juuri konsolin kanssa, joka nyt siis jää toistaiseksi ostamatta. Oma skenaarioni ei ehkä ole ihan tavanomaisin, mutta uskon että muitakin löytyy, joilla tämä Nvidian ja tuleva AMD:n uutuuslinja saattaa kääntää kelkan koneen päivitykseen konsolin sijasta. :)
 
Täällä(kin) kun on ollu väittelyä siitä, kilpailevatko näytönohjaimet konsoleiden kanssa, niin tässäpä oma tarinani:
Olen PS5:n ennakkotilannut jo kuukausia sitten, koska vanha PS3 rupeaa pätkimään ja kuulostaa suihkuhävittäjältä, vaikka pölyt on putsattu ja tahnat vaihdettu. Olin myöskin päättänyt päivittää koneeni uuteen tämän syksyn/talven aikana ja ajatellut rahoittaa osan näistä hankinnoista myymällä nykyisen koneeni pakettina custom-looppeineen eteenpäin.
Emäntä tossa jokunen viikko takaperin ehdotti, että josko mun nykyinen kone siirrettäisiin olohuoneeseen mediaPC:nä toimimaan. Aluksi en ollut täysin myyty ajatukselle, koska oletin tarvitsevani selvästi enemmän kapitaalia mm. juuri näytönohjaimeen, mutta näiden hintojen ja ehkä enemmänkin tehojen pikkuhiljaa hahmottuessa (puolueettomia revikoita odotellessa) rupeaa näyttämään enemmän ja enemmän siltä, että PS5 tilaukseni tulen perumaan. Voi olla, että joskus myöhemmin semmoisenkin alennusmyynneistä yksinoikeuspelejä varten hommaan, mutta 95% varmuudella skippaan PS5:n ja lätkäisen nykyisen koneen telkkariin kiinni.
Jos järkevä tehonlisäys nykyiseen 1080 Ti:hin olisi maksanut esim. 1200€, niin vaikka uuden koneen olisin joka tapauksessa ostanut, olisi nykyinen mennyt myyntiin ja tilalle tullut konsoli (olettaen siis, että vanhan koneeni myymällä olisi pleikkarin oston jälkeen jäänyt plussalle). Omalla kohdallani tämä julkaisu kilpaili juuri konsolin kanssa, joka nyt siis jää toistaiseksi ostamatta. Oma skenaarioni ei ehkä ole ihan tavanomaisin, mutta uskon että muitakin löytyy, joilla tämä Nvidian ja tuleva AMD:n uutuuslinja saattaa kääntää kelkan koneen päivitykseen konsolin sijasta. :)

Olin itsekin jo päättänyt ostaa PS5:n, mutta nyt tuleekin sen sijaan ostettua 3080. Voi olla että myös se pleikkari tulee hankittua joskus myöhemmin, mutta tuskin ainakaan pariin vuoteen.
 
Hieno idea ostaa kallis pc joka pyörittää 4k 60fps pelejä high settingseillä ja sitten toinen pc jolla 33% ekan pc:n suorituskyvystä mutta pääsee muutaman pelin drm läpi.
 
Mielenkiintoinen tuo FE korttien PCB kun ei ole referenssi EKWBn mukaan. Muut valmistajat tekee siis referenssi kortit ilmeisesti erilaisella piirilevyllä jäähdytyksellä ja näihin malleihin saisi sitten EKWB blokkeja. Varmaan bykski tai joku muu valmistaja julkasee suht nopeasti FE kortteihin blokit. Tuollainen 3080 FE blokilla olisi varmaan helppo mahduttaa melkeen mihin vain koteloon kun suhteellisen lyhyt PCB. :think:
EKWB ilmoitti jo parilla kanavalla että FE-malleille tulee oma blokki.
 
Puoliso striimaa prosessorilla mutta itse olen sanonut että striimaisi sillä nvencillä niin toimisi pelitkin paremmin. Saa nähdä tuleeko nvenc parannuksia rtx 3000 sarjassa niin siirtyisi siihen. Gtx 1000 sarjan nvenc oli x264 very fast tasolla ja rtx 2000 sarjassa iso hyppäys fast-medium tasolle. Saa nähdä tuleeko vastaava hyppäys rtx 3000 sarjassa....
Voihan tuon streamauksen vaikutusta prosessorin kulutukseen tutkia vaikka juuri tuolla Afterburnerilla vertailemalla mikä se on ilman encoodausta ja sen kanssa.
Ilmeisesti NVENC encoderiin ei ole tullut muutoksia 3000 sarjan myötä, mutta decoder nousi pykälän AV1 tuen myötä NVIDIA GeForce -näytönohjaimet
 
Täällä(kin) kun on ollu väittelyä siitä, kilpailevatko näytönohjaimet konsoleiden kanssa, niin tässäpä oma tarinani:
Olen PS5:n ennakkotilannut jo kuukausia sitten, koska vanha PS3 rupeaa pätkimään ja kuulostaa suihkuhävittäjältä, vaikka pölyt on putsattu ja tahnat vaihdettu. Olin myöskin päättänyt päivittää koneeni uuteen tämän syksyn/talven aikana ja ajatellut rahoittaa osan näistä hankinnoista myymällä nykyisen koneeni pakettina custom-looppeineen eteenpäin.
Emäntä tossa jokunen viikko takaperin ehdotti, että josko mun nykyinen kone siirrettäisiin olohuoneeseen mediaPC:nä toimimaan. Aluksi en ollut täysin myyty ajatukselle, koska oletin tarvitsevani selvästi enemmän kapitaalia mm. juuri näytönohjaimeen, mutta näiden hintojen ja ehkä enemmänkin tehojen pikkuhiljaa hahmottuessa (puolueettomia revikoita odotellessa) rupeaa näyttämään enemmän ja enemmän siltä, että PS5 tilaukseni tulen perumaan. Voi olla, että joskus myöhemmin semmoisenkin alennusmyynneistä yksinoikeuspelejä varten hommaan, mutta 95% varmuudella skippaan PS5:n ja lätkäisen nykyisen koneen telkkariin kiinni.
Jos järkevä tehonlisäys nykyiseen 1080 Ti:hin olisi maksanut esim. 1200€, niin vaikka uuden koneen olisin joka tapauksessa ostanut, olisi nykyinen mennyt myyntiin ja tilalle tullut konsoli (olettaen siis, että vanhan koneeni myymällä olisi pleikkarin oston jälkeen jäänyt plussalle). Omalla kohdallani tämä julkaisu kilpaili juuri konsolin kanssa, joka nyt siis jää toistaiseksi ostamatta. Oma skenaarioni ei ehkä ole ihan tavanomaisin, mutta uskon että muitakin löytyy, joilla tämä Nvidian ja tuleva AMD:n uutuuslinja saattaa kääntää kelkan koneen päivitykseen konsolin sijasta. :)
Mikset osta molempia ja myy vanhaa konetta? Pleikka ja PC on kuiteki kaks aika erilaista pelialustaa. Tiettyi pelei tulee varmaan pelattuu enemmän PC:llä ja sama toistepäin.
 
Mikset osta molempia ja myy vanhaa konetta? Pleikka ja PC on kuiteki kaks aika erilaista pelialustaa. Tiettyi pelei tulee varmaan pelattuu enemmän PC:llä ja sama toistepäin.
Juurihan Sony ilmoitti että tutkii vaihtoehtoja lisätä yksinoikeus pelejä PC lle... Eli niinkuin nytkin niin myydään ensin PS5 ja sit 6kk - 12kk PC lle enhanced versio että saadaan kahdesti myytyä.
 
Kyllä mun on kanssa tuohon konsoliasiaan sanottava, että Series X oli vähän niinkuin ajatuksissa hankittu jo. Toki PC olisi pysynyt pääasiallisena pelialustana, mutta kun Game Pass on jo pitkälle eteen päin hankittuna, niin ajattelin tutustua next gen -kokemukseen ihan omakohtaisesti. Mutta nyt on kyllä vähän sellainen tutina, että taitaa olla konsolijulkaisun aikaan niin paljon hyvää rautaa PC:ssä, että ei nappaa ensihätään. Jos 3080 vaan tulee saatua plakkariin, eikä Reverb G2 julkkari enää entisestään veny, niin ei mulla ole aikaa mitään konsoleita neppailla tässä saumassa. Vähän kutittelisi lisäksi laittaa monitoria uusiksi, eli ottaa se LG:n 48CX OLED vielä työhuoneeseen olohuoneen 65" C9:n lisäksi. Kyllä nyt on ihan selvää kulta-aikaa PC-puolella.

Ihan satavarmasti Nvidia teki laskelmoidun iskun konsoleita vastaan.
 
Meni myös harkintaan ps5 vs 3080 sohvapelailuun. Mietin vaan että samoja multiplattareita tulisi pelattua, toisella säätämällä aina 60fps ja toisella 30fps tai ehkä 60 riippuen pelintekijästä. Toisella saisi myös kiinnostavat yksinoikeudet (ps5, pcllä ei ole kiinnostavia). Ps5 muistijärjestelmä, varmasti toimiva hdr, uusi ohjain ja yleinen helppous kaiken suhteen vetää edelleen puoleen. Miksi ei molempiakin, mutta kun ne pelattavat pelit on käytännössä samat niin pclle jää ”vain” sulavampi kuva(kieltämättä houkuttelee toodella pahasti kun 30 meinaa käydä silmien päälle) ja ehkä jotain pientä graafista eroa + säätäminen.

Näkisin myös julkaisun tähän saumaan jonkinlaisena iskuna konsoleja harkitseville. Sen verran pahasti polttelee mutta saapa nähdä kumpaan päätyy. Puolueettomat testit tulee joka tapauksessa katseltua ennen kuin tilaan ja oikeastaan päätös tulee tehtyä lähempänä pleikan julkaisua. Joutuu sitten odottelemaan tai ei. Hypessä tehtyihin päätöksiin pettyy liian usein.
 
Juurihan Sony ilmoitti että tutkii vaihtoehtoja lisätä yksinoikeus pelejä PC lle... Eli niinkuin nytkin niin myydään ensin PS5 ja sit 6kk - 12kk PC lle enhanced versio että saadaan kahdesti myytyä.
No se nyt ei ollut mitä tarkoitin. Viittasin enemmänkin peleihin joita kivempi pelaa olkkarissa ohjaimella jne.
 
Hardware Canucksin mukaan arvostelut saa julkaista 14. päivä FE:lle ja 17. päivä AIB:t

rev.PNG
 
Mikset osta molempia ja myy vanhaa konetta? Pleikka ja PC on kuiteki kaks aika erilaista pelialustaa. Tiettyi pelei tulee varmaan pelattuu enemmän PC:llä ja sama toistepäin.
Eipä tolla PS3:llakaan ole tullut pelattua, kuin vajaa kymmentä peliä näiden vuosien aikana, niin enköhän mä pärjäile alennusmyynteihin asti. Voi sitten ottaa kunnon pleikkariputken niillä peleillä, jotka on siihen mennessä ilmestyny. :D

Edit. Ite en oikeen ohjaimella pelailusta lämmenny, lukuunottamatta jotain Toni Haukkoja, LBP:tä ja Marioita ymv.
Ja saahan koneeseenkin ohjaimia liitettyä jos siltä tuntuu.
 
Viimeksi muokattu:
Aika järjetön veto, mutta toivotaan et ovat sit 17. päivä aamulla luettavissa. Jos NDA loppuu samalla hetkellä kun julkasu on, niin aika kusinen homma.
Se 16.00 on ihan superstandardi uusille julkaisuille/revikoille etc, eli veikkaisin että sama molemmille. Hikiseks menee kyllä. :)

Tietääpähän ainakin ennakkoon kannattaako FE:tä edes harkita.
 
Se 16.00 on ihan superstandardi uusille julkaisuille/revikoille etc, eli veikkaisin että sama molemmille. Hikiseks menee kyllä. :)

Tietääpähän ainakin ennakkoon kannattaako FE:tä tilata.
Noooo, FE:tä tässä on silmäiltykkin. Näemmä nVidia kanssa yrittää vähän ohjata kuluttajia sen pariin, sillä eihän tää mitenkään normaalia ole et AIB valmistajien korttien revikat tulee samalla sekunilla ulos kun myynti alkaa. Pystyyhän noista kuvien perusteella jo jonkinlaisia johtopäätöksiä kyllä vetämään, mutta ois ne revikat ollu kiva lueskella rauhassa läpi ennen ostopäätöksen tekemistä. Nykysen tiedon mukaan se on sit FE tai puolsokkona joku toinen, tilauksen jälkeen sit luetaan et kuinka vituiks meni :smoke:
 
Tarkoittiko tuo loppu, että nVidia Reflex tarvitsee yhteensopivan hiiren ja näytön?
Reflexillä voidaan tarkoittaa kahta asiaa: 1) asetus pelissä, jolla latenssia (toivottavasti) saadaan jonkin verran tiputettua, ja tämä on eri viritys kuin ajureista säädettävä low latency mode 2) latenssinmittausjärjestelmää. Jälkimmäinen tarvitsee yhteensopivan hiiren ja näytön, ensimmäinen tarvitsee yhteensopivan pelin.
 
Oliko tuossa Asuksen TUF-kortissa jotain ongelmia lämpöjen kanssa aikaisemmissa malleissa? Se vaikuttaisi hinnan puolesta pätevältä.
 
Intel Core i9-7920X NVIDIA GeForce RTX 3090 - PSU Calculator - Build IEhDdh
Ei tuo minusta nyt yli ampuva ole kulutusten suhteen kun nykyselläkin näkee foldinghomea ajaessa 730w tehoja ja olen saanut yli 900w revittyä prime + karvarinkula yhdistelmällä.

Moni varmaan huutelee niitä omia kulutuslukemia mitä jossain pelissä hörppää mikä tuskin koskaan on se todellinen maksimi kulutus jonka se kone voi hörpätä kun kurmotetaan CPU + GPU 100% kuormalla. Ittellä 750W multirail PSU kyykähti kun iskin Vega 56 vesille ja laitoin Folding@Home jauhamaan molemmilla. Ainut virittely oli Vegaan hiukan muistikolloja lisää ja power limit +50%. 300W kun alkoi Vegalla paukkumaan rikki niin poweri alkoi kyykkäillä.

ei kovin --big fuk--gpu 3090 kovin tietysti--mutta kova paketti tämä 3080.
guru3d hilpertti van doorn mielestä tgp 2080ti on sama 320w kuin 3080 ampere tgp----kuluttaisi saman verran.

Niin voihan se toki olla että wattiraja on tarkoitukselle hilattu ylös jotta voidaan myydä huonompiakin piirejä. Mutta tuossahan oli toi video jossa tuota reflexiä esiteltiin niin olihan siellä ihan tukevat 310W tuolla 3080 kulutus.

Video timestämpätty kohtaan jossa ajellaan 3080:llä Fortniteä ja Geforce Experiencen monitorointi näyttää kellot, lämmöt ja muuta tietoa:

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Olettaen että aidot lukemat taulussa niin Jenssenin puheet, että tuo jäähy pitäis näyttiksen 20 astetta viileämpänä Turing FE:hen verrattuna on snadisti llioiteltuja :)


Itteäni lähinnä ihmetyttää tää nvidian suoranainen valehtelu kelloissa jota on nyt jatkunut jo aika pitkään. Max turbo jotain 1700MHz ja kortti kyntää sitten yli 1900MHz, en ymmärrä. Tämä oli täysin sama tilanne 2000 sarjassa jo ainakin että max kellot ilmoitetaan huomattavasti alhaisemmaksi mitä ne todellisuudessa esim. pelatessa on. RTX2080Ti jossain videoilla mitä katselin piti tasaisesti lähes 1900MHz kelloja vaikka ilmoitettu on boostiksi alta 1600MHz.
Että onko tää jokin mindgame, saahan tuolla varmaan kortin omistajat kuvittelemaan että nyt tuli kyllä varsin hyvä ostos kun näin hyvin kulkee.
Vai onko noi base ja max boost kellot nvidialla katottu jonkun karvarinkulan pyörittelyn mukaan? Siinähän käsittääkseni droppaa kelloja.
 
Hardware Canucksin mukaan arvostelut saa julkaista 14. päivä FE:lle ja 17. päivä AIB:t

rev.PNG


Ei helvetti. Nyt on kyllä eka tän julkkarin hutiveto Nvidialta, jos oikeasti koittavat tuolla tavalla ohjata alkumyyntiä omaan FE-malliinsa. Nimenomaan AIB-mallien revikat on niitä oleellisia, koska niissä on varmasti julmia eroja toisiinsa.
 
Meneekö tämä tiettyjen AIB-mallien osalta nyt hankalaksi kun tarvittaisiin 3x 8 pin? Itsellänikin on 750w, single rail:


Tässä mallissa 2 kpl 6+2 ja 2 kpl myös 6pin.

Joku adapteri jolla saa 6pin 8pin, jos uskaltaa käyttää? ;)

Aina ennen riittänyt 2x8pin.
 
Itteäni lähinnä ihmetyttää tää nvidian suoranainen valehtelu kelloissa jota on nyt jatkunut jo aika pitkään. Max turbo jotain 1700MHz ja kortti kyntää sitten yli 1900MHz, en ymmärrä.
Ei kai se mikään max boost ole vaan pikemminkin minimi. Oma 2080 korttini kävi jossain harvoissa peleissä hyvin lähellä niitä speksattuja 1845mhz boosteja stock asetuksilla. Yleensä selvästi korkeampi.

Paljon huonompi juttuhan se olisi luvata 1920 ja sitten joissain peleissä toteutuukin vain 1860. Siinä osa asiakkaista tuntisi itsensä kusetetuksi, eikö?
 
Paljon huonompi juttuhan se olisi luvata 1920 ja sitten joissain peleissä toteutuukin vain 1860. Siinä osa asiakkaista tuntisi itsensä kusetetuksi, eikö?

No mutta kun siellä on vielä se base clock. Esim. 2080Ti:ssä se on 1350MHz. Niin en ymmärrä alkuunkaan että miksi ilmoitellaan tuollaisia lukemia jotka ei missään tilanteessa kai toteudu, vai onko joku nähny Ti:n droppaavan noin alas?
Ja en ainakaan itse jotain ilmoitettua max boost kelloa kokisi kusetetuksi kunhan se jossain tilanteissa toteutuu. Näinhän ei esim Zen 2 kohdalla taida aina tapahtua josta syystä ihan aiheesta nousi meteli.

Onko tuo FE muuten ensimmäinen kerta kun tuommoinen ulos puhiseva design on tehty? Näin muutaman oluen tehostamalla mutulla tuo vaikuttaa paljon paremmalta kuin nuo ikivanhat copypastetut 2-3 tuuletttimen viritelmät.

No siis sehän on puoliksi blower, eli tavallaan on. Mutta jos tarkoitat että onko aiemmin ollut tuplatuuletin settiä jossa toinen pääosin puhkuu kuumat ulos niin ilmeisesti ei.
 
TPU:lla artikkelia

 

Statistiikka

Viestiketjuista
295 851
Viestejä
5 053 974
Jäsenet
80 989
Uusin jäsen
thelkku

Hinta.fi

Back
Ylös Bottom