FreeSync on saatu vihdoin toimimaan GeForce-näytönohjaimella

  • Keskustelun aloittaja Keskustelun aloittaja Kaotik
  • Aloitettu Aloitettu

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
23 639
amd-freesync-on-nvidia-geforce-20180828.jpg



NVIDIAn G-Sync-teknologia tuo mukanaan ylimääräisiä kustannuksia näyttöjen valmistajille, mikä näkyy loppukäyttäjille vastaavia FreeSync- eli Adaptive-sync-näyttöjä kalliimpina hintoina. Monet ovat kiristelleet hampaita NVIDIAn jatkaessa standardia vastaan taistelua, mutta nyt survfate-nimimerkkiä käyttävä Reddit-käyttäjä on löytänyt tavan saada FreeSync toimimaan myös NVIDIAn näytönohjaimilla.

Survfate on saanut kikkailemalla Windowsin uusilla GPU-asetuksilla FreeSyncin toimimaan NVIDIAn GeForce GTX 1060 6 Gt -näytönohjaimella. Periaatteessa minkä tahansa NVIDIAn näytönohjaimen pitäisi kuitenkin toimia täysin samoin. Millä tahansa kokoonpanolla homma ei kuitenkaan toimi, vaan se vaatii näillä näkymin AMD:n APU-piirin kokoonpanon prosessoriksi.

Saadakseen FreeSyncin toimimaan NVIDIAn näytönohjaimella täytyy järjestelmän ensisijaiseksi näytönohjaimeksi valita AMD:n integroitu grafiikkaohjain ja kytkeä FreeSync-näyttö emolevyn liitäntään. FreeSync-näyttö on myös asennettava ykkösnäytöksi, mikäli kokoonpanossa on useampi näyttö.

Käyttäjän on asennettava ajurit sekä AMD:n integroidulle näytönohjaimelle että NVIDIAn erillisnäytönohjaimella, jonka jälkeen Radeon Settings -asetuksista asetetaan FreeSync käyttöön ja NVIDIAn ohjauspaneelista puolestaan valitaan käytettäväksi näytönohjaimeksi GeForce. Myös Windows 10:n versio 1803:n eli viime kevään päivityksen sisäänrakennetun näytönohjainvalitsimen pitäisi ajaa sama asia.

Tämän jälkeen minkä tahansa FreeSync-näytöllä pyörivän sisällön renderöinnin pitäisi hoitua GeForcella, joka lähettää kuvan AMD:n APU-piirin läpi näytölle. APU-piirin grafiikkaohjain pitää puolestaan huolen ruudunpäivitysnopeuden ja näytön virkistystaajuuden synkronoinnista.

Teoriassa myös AMD:n erillisnäytönohjainten käyttö saattaisi toimia, mutta tätä ei ole ilmeisesti kukaan ehtinyt vielä testaamaan. Ongelmaksi saattaisi muodostua se, että yllä kuvatussa skenaariossa NVIDIAn erillisnäytönohjain toimii kannettavista tutussa Optimus-tilassa, mikä on suunniteltu nimenomaan käyttämään integroitua grafiikkaohjainta näyttöohjaimena.

Päivitys 29.8:

Sama temppu toimii myös AMD:n erillisnäytönohjainten avulla.

Lähde: Reddit

Huom! Foorumiviestistä saattaa puuttua kuvagalleria tai upotettu video.

Linkki alkuperäiseen uutiseen (io-tech.fi)

Palautelomake: Raportoi kirjoitusvirheestä
 
Viimeksi muokattu:
Valitettavasti tuo viritys haisee siltä, että tulee tavalla tai toisella johtamaan ongelmiin. Ihan ilman sitä, että Nvidia estäisi tuon ajuri/softa tasolla. Jonka Nvidia ystävällisesti tulee tekemään ennemmin tai myöhemmin. :\
 
Tulee mieleen Lucid Virtu kikkare minkä oli mukamas tarkoitus ottaa prosessorin integroitu näyttis mukaan auttamaan erillistä näyttistä. Kuulostaa kivalta teoriassa mutta käytännössä ongelmia täynä (eli täysi susi).
 
Noh, on tämäkin viritelmä alku. Ehkä joku saa koodattua tulevaisuudessa esimerkiksi ohjelman, jolla Nvidian näyttikset saadaan näyttämään AMD:n Radeoneilta emon/prossun silmissä.
 
G-sync näytöissä ilmesesti on aina tuo "kallis" g-syncpiiri. Onko freesync näytöissä joku aivan vastaava, mutta hinnaltaan olematon? Onko G-syncissä _mitään_ mikä puoltaisi sen kalliimman hinnan puolesta kuin Nvidian leima?
 
Mielestäni vähän klikkiotsikko kyllä, kysehän ei ole siitä että fsync toimisi nvidialla vaan se toimii amd:n integroidulla jolle 1060 lähettää framebufferin.
 
  • Tykkää
Reactions: MrM
Noh, on tämäkin viritelmä alku. Ehkä joku saa koodattua tulevaisuudessa esimerkiksi ohjelman, jolla Nvidian näyttikset saadaan näyttämään AMD:n Radeoneilta emon/prossun silmissä.
Ei se FreeSync siitä ole kiinni miltä se NVIDIAn näyttis näyttää emon tai prossun silmissä, se on ihan siitä kiinni ettei NVIDIA halua sitä tukea ja sen vuoksi ainut tapa on kierrättää signaali toisen näytönohjaimen näyttöohjaimen läpi

Mielestäni vähän klikkiotsikko kyllä, kysehän ei ole siitä että fsync toimisi nvidialla vaan se toimii amd:n integroidulla jolle 1060 lähettää framebufferin.
Renderöinnin hoitaa kuitenkin se GeForce, vaikka framebufferi ennen näyttöä kiertääkin APU:n näyttöohjaimen läpi, mikä on se oleellinen pointti.
 
Renderöinnin hoitaa kuitenkin se GeForce, vaikka framebufferi ennen näyttöä kiertääkin APU:n näyttöohjaimen läpi, mikä on se oleellinen pointti.

Joo-o, mutta otsikossa ei mitään mainintaa että vaatii AMD näyttiksen väliin, joka on aika oleellinen pointti myös. En varmasti ole ainoa joka otsikon luettuaan ajatteli jotain ihan muuta kuin mistä uutisessa oikeasti on kyse.
 
Joo-o, mutta otsikossa ei mitään mainintaa että vaatii AMD näyttiksen väliin, joka on aika oleellinen pointti myös. En varmasti ole ainoa joka otsikon luettuaan ajatteli jotain ihan muuta kuin mistä uutisessa oikeasti on kyse.
Se on siinä ingressissä/otteessa mainittu heti alkuunsa
 
G-sync näytöissä ilmesesti on aina tuo "kallis" g-syncpiiri. Onko freesync näytöissä joku aivan vastaava, mutta hinnaltaan olematon? Onko G-syncissä _mitään_ mikä puoltaisi sen kalliimman hinnan puolesta kuin Nvidian leima?
Freesync: ssä ei ole eikä tarvita piiriä, eli lisähinnalle on peruste.
 
Se on siinä ingressissä/otteessa mainittu heti alkuunsa
Joo mutta freesync EI EDELLEENKÄÄN TOIMI nvidian näyttiksellä, kuten otsikko väittää. Freesync toimii amd näyttiksellä, vaikka renderöinti tapahtuisikin toisaalla. Otsikko tuossa muodossa siis täysin virheellinen.

"Sähkö on saatu kulkemaan langattomasti" - eli langattomasti ohjattava pistorasia on keksitty. :facepalm:
 
Freesync: ssä ei ole eikä tarvita piiriä, eli lisähinnalle on peruste.
On sielläkin piiri, mutta se tuki on rakennettu suoraan skaalaimeen mikä vehkeestä löytyisi muutenkin (ja ei vaadi ilmeisesti juurikaan lisälogiikkaa skaalaimeen koska osa tuki ominaisuuksia jo kun FreeSync esiteltiin)
 
On sielläkin piiri, mutta se tuki on rakennettu suoraan skaalaimeen mikä vehkeestä löytyisi muutenkin (ja ei vaadi ilmeisesti juurikaan lisälogiikkaa skaalaimeen koska osa tuki ominaisuuksia jo kun FreeSync esiteltiin)
Tarkoitin lisä- piiriä sitä ei ole.
 
Itsekin luulin otsikon perusteella että GeForce olisi saatu kommunikoimaan suoraan FreeSync-näytön kanssa.
 
Eli vastuuvapaus lause jokaiseen otsikkoon? Mielestäni otsikko on hyvä vaikkakaan ei sisällä kuin 90% totuudesta.
Mielestäni tietotekniikassa on niin paljon nyansseja, että otsikot venyisivät useammaksi riviksi jos koko totuus pitäisi mahtua otsikkoon.
Itse uutiseen liittyen: tämä mielestäni hyvä uutinen, toivotaan että saadaan toimimaan kunnolla ja ettei NVIDIA keinotekoisesti estä.
 
Kyllä on hämäävä otsikko nyt, klikkasin muilla oletuksilla mitä juttu tarjosi.
 
On sielläkin piiri, mutta se tuki on rakennettu suoraan skaalaimeen mikä vehkeestä löytyisi muutenkin (ja ei vaadi ilmeisesti juurikaan lisälogiikkaa skaalaimeen koska osa tuki ominaisuuksia jo kun FreeSync esiteltiin)
Freesync ei itseasiassa tarvitse oikeastaan mitään lisälogiikkaa. Osa non-freesync näytöistä toimii hienosti myös freesync-näyttöinä, kunhan käyttöjärjestelmän puolelle vain kerrotaan CRU:lla sopivat vaihteluvälit. Eli non-freesync näyttö voisi toimia synkattuna aivan normaalisti. Tokihan valmistajan tukemana se on yleensä toimivampi eikä vaadi säätöä.
 
Otsikko on aivan ok. Sanamuoto antaa ymmärtää että kyse on "kikkailusta" joka mahdollistaa nvidian raudan käyttämisen freesyncin kanssa. Tekstissä syvennetään rajoitteita.
 
Tuossa voisi olla paremmin kuvaava otsikko. Eli vaatii APU:n tai ehkä toimii myös amd:n näyttiksen kanssa?

FreeSync on saatu toimimaan GeForcella AMD:n APU piirin kautta.
 
Toimii myös kahdella dGPU:lla esim. RX460 ja GTX 1080 Ti, jos peli tukee GPU:n valintaa.

Periaatteessa esim. Bethesdan peleissä voisi riittää iAdapter=0 tai 1 arvon määrittely .ini tiedostoihin. Testailen jahka tuo RTX 2080 joskus saapuu.

Eiköhän joku vielä keksi keinot, jotta saadaan dGPU määriteltyä Windowsiin Power Saving GPUksi, niin peleiltä ei vaadita GPU valintaa.
 
Miten vi***** nykyään on about joka uutisen jälkeen jonkun pakko pälättää jotain "klikkiotsikoista" ja viilata pilkkua siihen malliin, kuin kaikki olisi jotain taulapäitä?

Kai kotonakin joku kädestäpitäen taluttaa vessaan ja kertoo, että muistakaa ravistaa toimituksen jälkeen? :facepalm:
Tai tulee tekemään sen asianomaisen itsensä puolesta ;)

Menkääpä kommentoimaan vaikka Seiskan uutisia, niin on jotain mistä oikeasti voi kommentoida:rolleyes:

Jep, jostain syystä nuo (minun mielestäni) täysin turhat narinat menivät tänään "ihon alle":D
 
Toimii myös kahdella dGPU:lla esim. RX460 ja GTX 1080 Ti, jos peli tukee GPU:n valintaa.

Periaatteessa esim. Bethesdan peleissä voisi riittää iAdapter=0 tai 1 arvon määrittely .ini tiedostoihin. Testailen jahka tuo RTX 2080 joskus saapuu.

Eiköhän joku vielä keksi keinot, jotta saadaan dGPU määriteltyä Windowsiin Power Saving GPUksi, niin peleiltä ei vaadita GPU valintaa.

Vois siis hommata pahnanpohjimmaisen amd:n gpu:n pelkästään näyttöä varten... Siihen liittyen... tuleeko mitään ylimääräistä latskua framen mennessä näin "kiertotietä"? Jos ei, niin tässähän vois olla potentiaalia jos homman saa toimimaan kahdella dgpu:lla. Voisi ajan mittaan saada nvidian miettimään strategiaa uudelleen, jos kyllin moni alkaisi käyttää tällaista kiertotietä. Estää kai tuota ei voi ajurilla jos kyseessä on windowsin ominaisuus?
 
Vois siis hommata pahnanpohjimmaisen amd:n gpu:n pelkästään näyttöä varten... Siihen liittyen... tuleeko mitään ylimääräistä latskua framen mennessä näin "kiertotietä"? Jos ei, niin tässähän vois olla potentiaalia jos homman saa toimimaan kahdella dgpu:lla. Voisi ajan mittaan saada nvidian miettimään strategiaa uudelleen, jos kyllin moni alkaisi käyttää tällaista kiertotietä. Estää kai tuota ei voi ajurilla jos kyseessä on windowsin ominaisuus?
Estihän nvidia physX käytön jos koneesta löytyy AMD kortti. Estetään siis koko GeForce käyttö jos löytyy AMD kortti. ;)
 
Eiköhän tämäkin patchata kiinni, kun Nvidialla huomaavat. Ellei AMD ala rajoittaa kilpailijoiden tuotteiden käyttöä ensin.
 
Miten vi***** nykyään on about joka uutisen jälkeen jonkun pakko pälättää jotain "klikkiotsikoista" ja viilata pilkkua siihen malliin, kuin kaikki olisi jotain taulapäitä?

Kai kotonakin joku kädestäpitäen taluttaa vessaan ja kertoo, että muistakaa ravistaa toimituksen jälkeen? :facepalm:
Tai tulee tekemään sen asianomaisen itsensä puolesta ;)

Menkääpä kommentoimaan vaikka Seiskan uutisia, niin on jotain mistä oikeasti voi kommentoida:rolleyes:

Jep, jostain syystä nuo (minun mielestäni) täysin turhat narinat menivät tänään "ihon alle":D
Eiköhän nämä narinat johdu ihan puhtaasti tuosta IO-median omasta tavoitteesta kitkeä nämä klikkiotsikot pois ja sen mukaisesta 50 punnerruksen rangaistuksesta. Olisihan tuossa otsikossa voinut hieman tarkentaa. Sysop rangaiskoot. :joy:
 
Mitenkä tuon kuvan syöttö näyttikseltä toiselle tapahtuu?
Eka GPU piirtää kuvan omaan bufferiinsa ja kun on valmista, niin kuvadata siirretään toiselle GPU:lle PCIe väylän kautta ja kun siirto on lopulta valmista, niin se toinen GPU muuttaa sen näkymään ruudulle?

Tästähän tulee auttamatta viivettä vielä jos jompikumpi näyttis on jonkun hitaamman PCIe väylän päässä, niin sitten lisää..
 
Tästähän tulee auttamatta viivettä vielä jos jompikumpi näyttis on jonkun hitaamman PCIe väylän päässä, niin sitten lisää..
Jos lasket paljonko valmiin kuvan siirto vie kaistaa niin ymmärrät ettei kaista ole ongelma. Pienen pieni viive voi syntyä, mutta onko se millään laitteella mitattavissa? Tuskin.

Edit:
Kun siis otetaan huomioon jo näytön skaalaimen viiveet ja pikselien vasteajat niin tuo siirron viive on täysin merkityksetön, eli sitä ei käytännössä ole.
 
tuleeko mitään ylimääräistä latskua framen mennessä näin "kiertotietä"? Jos ei, niin tässähän vois olla potentiaalia jos homman saa toimimaan kahdella dgpu:lla.

Mitenkä tuon kuvan syöttö näyttikseltä toiselle tapahtuu?
Eka GPU piirtää kuvan omaan bufferiinsa ja kun on valmista, niin kuvadata siirretään toiselle GPU:lle PCIe väylän kautta ja kun siirto on lopulta valmista, niin se toinen GPU muuttaa sen näkymään ruudulle?

Tästähän tulee auttamatta viivettä vielä jos jompikumpi näyttis on jonkun hitaamman PCIe väylän päässä, niin sitten lisää..

PCPerin testeissä input latency kasvoi 3ms, joten käytännössä ei mitään vaikutusta. Toki kahdella dGPU:lla tulos voi olla erilainen, mutta tuskin kauheasti heittää tuosta.
 
Viimeksi muokattu:
G-sync näytöissä ilmesesti on aina tuo "kallis" g-syncpiiri. Onko freesync näytöissä joku aivan vastaava, mutta hinnaltaan olematon? Onko G-syncissä _mitään_ mikä puoltaisi sen kalliimman hinnan puolesta kuin Nvidian leima?
Ainakin aiemmin G-Sync moduuli mahdollisti tarkemman signaloinin, jonka myötä näytöt saatiin toimimaan korkeammalla virkistystaajuudella, mutta en ole varma onko noissa enää nykyisin merkittäviä eroja.

Itse uutiseen liittyen voisin lainata itseäni toisesta ketjusta sen verran, ettei tämä ole suuri yllätys, sillä läppäreissä G-Sync toimii ilman G-Sync moduulia, eli niissä se on toteutettu jossakin määrin Adaptive Synciä hyödyntäen (vaikkakaan tässä ei aivan samasta asiasta olekkaan kyse).
 
Eli vastuuvapaus lause jokaiseen otsikkoon?
Ei yhtään yliampuvaa...? ;-)
Mielestäni otsikko on hyvä vaikkakaan ei sisällä kuin 90% totuudesta.
Aika tarkasti analysoitu, jos olet todennut, että tämän jutun otsikko sisältää totuudesta 90 % ;-). Otsikko ei kuitenkaan ole hyvä, jos se luo jutun sisällöstä harhaanjohtavan kuvan. Se on aivan perusasioita.
Mielestäni tietotekniikassa on niin paljon nyansseja, että otsikot venyisivät useammaksi riviksi jos koko totuus pitäisi mahtua otsikkoon.
Ei kukaan kaipaa otsikkoon jutun koko sisältöä – juttuhan kerrottaisiin silloin kahteen kertaan. Ei ole edes kyse siitä, että otsikkoon pitäisi laittaa paljon asioita, vaan siitä, että sen mitä otsikossa sanotaan, oli se vähän tai paljon, täytyy pitää paikkansa, eikä se saa helposti luoda lukijalle väärää kuvaa asiasta. Nuo vaatimukset täyttävän otsikon laatiminen ei ole koskaan vaikeaa. Joskus se on vähän helpompaa kuin jonain toisena kertana, mutta aina se onnistuu ilman isompaa pohtimista. Ongelmia tulee silloin kun otsikosta yritetään tehdä jotain muuta kuin vain tiivistelmä tosiasioista, esimerkiksi jonkinlainen elämysmagneetti, jolla houkutellaan lukijoita. Tällöin otsikosta pitää tehdä houkuttelevampi kuin itse asia on, mikä ei ole mahdollista ilman jonkinasteista vääristelyä.

Tässä esimerkki paremmasta otsikosta, joka on vieläpä lyhyempi kuin alkuperäinen:

- FreeSync kikkailtiin toimimaan GeForce-näytönohjaimella

Ja vähän kehittyneempi versio:

- FreeSync ja GeForce-ohjain kikkailtiin toimimaan yhdessä AMD APU:n avulla

Noista on helppo laatia erilaisia muunnelmia.
Itse uutiseen liittyen: tämä mielestäni hyvä uutinen, toivotaan että saadaan toimimaan kunnolla ja ettei NVIDIA keinotekoisesti estä.
Yhdyn toveeseen :-).
 
- FreeSync kikkailtiin toimimaan GeForce-näytönohjaimella
Nyt on kyllä pakko ihmetellä että miten ihmeessä "kikkailtiin" on parempi kuin "on saatu toimimaan"? "Vihdoin" on toki tehokeino, mutta on sitä aika kauan toivottu monen käyttäjän toimesta että GF:tkin tukisi FreeSynciä jonka vuoksi näin sen sopivana
 
"Vihdoin" on toki tehokeino, mutta on sitä aika kauan toivottu monen käyttäjän toimesta että GF:tkin tukisi FreeSynciä jonka vuoksi näin sen sopivana

Mutta näinhän ei ole käynyt ja siksi myös minun mielestäni otsikko on harhaanjohtava, raflaava nyt vähintäänkin.

Ja jos pitää kehitysehdotus antaa niin:

FreeSync saatiin toimimaan nVidian näytönohjaimilla AMD:n APU -piiriä hyödyntäen.
 
Tulee mieleen Lucid Virtu kikkare minkä oli mukamas tarkoitus ottaa prosessorin integroitu näyttis mukaan auttamaan erillistä näyttistä. Kuulostaa kivalta teoriassa mutta käytännössä ongelmia täynä (eli täysi susi).
Tässä on iso ero tuohon virtusysteemiin.

Virtusysteemi yritti hyödyntää kummankin GPU:n laskentatehoa, tämä ei yritä tässä se toinen (AMD) GPU hoitaa vain sen lopullisen kuvan näyttämisen parhaalla mahdolisella FPS:äällä (johon se Nvidia GPU ei pysty typerän G-Sync rajoitteen takia).
 
Toimii myös kahdella dGPU:lla esim. RX460 ja GTX 1080 Ti, jos peli tukee GPU:n valintaa.

Periaatteessa esim. Bethesdan peleissä voisi riittää iAdapter=0 tai 1 arvon määrittely .ini tiedostoihin. Testailen jahka tuo RTX 2080 joskus saapuu.

Eiköhän joku vielä keksi keinot, jotta saadaan dGPU määriteltyä Windowsiin Power Saving GPUksi, niin peleiltä ei vaadita GPU valintaa.

Vois siis hommata pahnanpohjimmaisen amd:n gpu:n pelkästään näyttöä varten... Siihen liittyen... tuleeko mitään ylimääräistä latskua framen mennessä näin "kiertotietä"? Jos ei, niin tässähän vois olla potentiaalia jos homman saa toimimaan kahdella dgpu:lla. Voisi ajan mittaan saada nvidian miettimään strategiaa uudelleen, jos kyllin moni alkaisi käyttää tällaista kiertotietä. Estää kai tuota ei voi ajurilla jos kyseessä on windowsin ominaisuus?
Tässä on järkeä vain jos sinulla ennestää jo on Freesync näyttö ja AMD iGPU tai dGPU mutta haluat hankkia Nvidian tehokkaan (1070>) GPU:n, sen sijaan hommassa ei ole järkeä jos joudut hankimaan sen AMD xGPU:n ja Freesync näytön (halvempaa hankkia suoraan G-Sync näyttö vaikka siinä on G-Sync rangastusvero).
 
Mitenkä tuon kuvan syöttö näyttikseltä toiselle tapahtuu?
Eka GPU piirtää kuvan omaan bufferiinsa ja kun on valmista, niin kuvadata siirretään toiselle GPU:lle PCIe väylän kautta ja kun siirto on lopulta valmista, niin se toinen GPU muuttaa sen näkymään ruudulle?

Tästähän tulee auttamatta viivettä vielä jos jompikumpi näyttis on jonkun hitaamman PCIe väylän päässä, niin sitten lisää..
Homma onn ollut vuosia käytössä koneissa joissa näyttö on kiinni Inten iGPU:ssa (esim. aivan kaikki läppärit joissa on erillinen dGPU Intel iGPU:n rinnalla).

Samoin aivan kaikki SLI/Crosfire toimii tällätavalla ja on aina toiminut.

Noissa missään ei ole ollut mitään merkittävää viivettä sen kuvan siirrosta johtuen.
 
Nyt on kyllä pakko ihmetellä että miten ihmeessä "kikkailtiin" on parempi kuin "on saatu toimimaan"? "Vihdoin" on toki tehokeino, mutta on sitä aika kauan toivottu monen käyttäjän toimesta että GF:tkin tukisi FreeSynciä jonka vuoksi näin sen sopivana
Mutta näinhän ei ole käynyt ja siksi myös minun mielestäni otsikko on harhaanjohtava, raflaava nyt vähintäänkin.

Ja jos pitää kehitysehdotus antaa niin:

FreeSync saatiin toimimaan nVidian näytönohjaimilla AMD:n APU -piiriä hyödyntäen.
Jep. Nythän GeForce ei edelleenkään tue, mutta AMD:n APU piiriä hyödyntäen tukee FeeeSync:iä.

En keksi edes että miten Nvidia voisi tuon fiksun ominaisuuden estää?
 
Heh, vanhan idean fiksua soveltamista: samalla perusideallahan Nvidian Tesloilla on pelattu pelejä. :D

Mutta itse asiaan... kyllä tuo otsikko on hiukan harhaanjohtava:
FreeSync on saatu toimimaan GeForcella
vs
FreeSync on saatu toimimaan GeForcella AMD:n näytönohjaimen kautta

Ei sinällään, eiköhän Nvidia tuon korjaa ajuripäivityksellä. Onhan noissa muitakin tarkistuksia jotta kaikkea käytetään "oikealla" tavalla. Esimerkkeinä vaikkapa GeForce ajurit jotka kaatavat itse itsensä virtuaalikoneessa. Tai Quadro joka muuttuu ominaisuuksiltaan GeForceksi jos molemmat on asennettuna samaan koneeseen.
 
Tulee mieleen Lucid Virtu kikkare minkä oli mukamas tarkoitus ottaa prosessorin integroitu näyttis mukaan auttamaan erillistä näyttistä. Kuulostaa kivalta teoriassa mutta käytännössä ongelmia täynä (eli täysi susi).
Minulla on optimus-läppäri ja tuo toimii ihan niin kuin pitääkin. Tuossa optimuksessa näyttis on kirjaimellisesti irrallaan koneen videoulostulosta, eikä sillä ole mitään videoulostuloa. Sen sijaan se on kytketty niin että se hoitaa renderöinnin peleissä, ja edelleenlähettää kuvan prossun IGPU:lle, joka edelleenlähettää sen näytölle.

Touhun pointtina on se että jos et pyöritä kovia tehoja vaativaa 3d sovellusta, nvidian GPU on pois päältä eikä syö energiaa. Omassa läppärissäni pääprossuna on toki intel jonka IGPU hoitaa varsinaisen näytön.
 
Eli vastuuvapaus lause jokaiseen otsikkoon? Mielestäni otsikko on hyvä vaikkakaan ei sisällä kuin 90% totuudesta.
Mielestäni tietotekniikassa on niin paljon nyansseja, että otsikot venyisivät useammaksi riviksi jos koko totuus pitäisi mahtua otsikkoon.
Itse uutiseen liittyen: tämä mielestäni hyvä uutinen, toivotaan että saadaan toimimaan kunnolla ja ettei NVIDIA keinotekoisesti estä.
Tässä mielestäni aika hyvä tiivistys tästä otsikkomutinasta.
 

Statistiikka

Viestiketjuista
279 377
Viestejä
4 803 066
Jäsenet
77 930
Uusin jäsen
hart

Hinta.fi

Back
Ylös Bottom