Phisonin toimitusjohtaja pelkää muistikriisin ajavan alas useita elektroniikkavalmistajia vielä tämän vuoden aikana

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
24 753
Phisonin toimitusjohtaja pelkää etenkin edullisimpia muisteja käyttäviä tuotteita valmistavien yritysten puolesta, sillä esimerkiksi televisioissa suositun 8 Gt:n eMMC:n hinta on noussut jopa yli 13-kertaiseksi vuodessa.
ceos-crying-memory-crisis-chatgpt-20260217.jpg

Muistikriisi on hilannut muistien hinnat moninkertaisiksi lyhyessä ajassa. Vaikka Saksassa onkin nähty jo pieniä merkkejä paremmasta, ei tässä vaiheessa voida vielä huokaista helpotuksesta ja taputella kriisiä menneen talven lumiksi.

Nyt tilanteeseen on ottanut kantaa myös SSD-asemien ohjainpiireistä parhaiten tunnetun Phisonin toimitusjohtaja Chien Chen Pang. Pang on varoittanut taiwanilaisen Era News –palvelun haastattelussa muistien ja NAND-piirien akuutin pulan johtavan mahdollisesti lukuisten kuluttajaelektroniikkaan keskittyneen yrityksen alasajoon vuoden loppuun mennessä.

Pangin mukaan erityisessä vaarassa ovat kustannustehokkaita ja vähämuistisia elektroniikkatuotteita, kuten Wi-Fi-reitittimet, edulliset äly-TV:t ja TV-boksit, valmistavat yritykset. Hän nostaa esimerkiksi monissa televisioissa käytetyn 8 Gt:n eMMC-piirin, jonka hinta on noussut vuodessa jopa yli 13-kertaiseksi – 1,5 dollarista 20 dollariin – ja millainen vaikutus tämänkaltaisella nousulla on edullisen hintaluokan tuotteisiin.

Toinen ongelma koskee piirien saatavuutta. Muistivalmistajat ovat myyneet omat kapasiteettinsa jo vuosiksi eteenpäin, eikä NAND-piirien puolella tilanne vaikuta sen paremmalta. Jopa perinteisten kiintolevyjen puolella tilanne näyttää synkältä ja Western Digitalkin ilmoitti vastikään myyneensä koko kuluvan vuoden tuotantonsa jo ennakkoon ja ilmeisesti se menee käytännössä täysin yhtiön seitsemälle suurimmalle asiakkaalle. Lisäksi WD kertoo tehneensä yhden näistä asiakkaista kanssa sopimuksen myös ensi vuoden kiintolevykaupoista ja toisen kanssa myös vuoden 2028 kattavan sopimuksen.

Lähde: TechPowerUp Uutiskuva on luotu hyödyntäen tekoälymallia
 
Jos kuvat pitää AI:lla tehdä niin jätä välistä, tätä ei kaipaa kukaan.

Sitä samaa minäkin, mutta ehkä kannattaa sinunkin mennä tuonne palauteketjuun:
 
Ei näytä olevan asiaa mitä AI-buumi ei pilaisi/tuhoaisi. Voisi ehkä pikkuhiljaa olla jo jonkinlaisen intervention paikka, mutta nykyisessä jo valmiiksi sekaisessa maailman tilassa taitaa olla täysi mahdottomuus kun olisi muutenkin todella vaikeaa saada tuollaista toteutettua.
Ei kai siinä enää kauaa mene kun openai kaatuu ensin ja kupla puhkeaa. Petrus vois tehdä vaikka uutisen kun nvidia ja microsoft on jo siitä laivasta hyppäämässä.
 
Samaan aikaan meillä menee todennäköisesti aika paljon piirejä ”roskiin”, kun käytännössä ei ole ollut järkeä välttämättä lähteä jostain lahonneesta laitteesta irrottamaan niitä ja validoida niitä uusiokäyttöön.

Tavallaan nousseet hinnat voivat jossain kohtaa tehdä tuota kannattavammaksi, joka olisi osittain hyväkin juttu, jos uusiokäyttö lisääntyisi. 🤔
 
Samaan aikaan meillä menee todennäköisesti aika paljon piirejä ”roskiin”, kun käytännössä ei ole ollut järkeä välttämättä lähteä jostain lahonneesta laitteesta irrottamaan niitä ja validoida niitä uusiokäyttöön.

Tavallaan nousseet hinnat voivat jossain kohtaa tehdä tuota kannattavammaksi, joka olisi osittain hyväkin juttu, jos uusiokäyttö lisääntyisi. 🤔
Eiköhän ne kiinapojat ala niitä kohta kolvaileen irti piireistä. Kysynnän ja tarjonnan laki.
 
Tietty yhtenä vaihtoehtona on vähän karsia sitä bloattia softasta ja optimoida koodeja. Onhan se nyt helvetin outoa, jos vaikka reititintä ei voi tehdä ilman 8 GIGAtavun ssd-piirejä, kun samaan aikaan OpenWRT on vasta alkanut siirtämään eläkkeelle noita 4-8 MEGAtavun NOR-flashejä. 4 gigatavuun mahtuu jo kokonainen työpöytädistro kehitystyökaluineen (kääntäjät, IDE:t jne).

Tosin noissa häntäpään laitteissa alkaa olla jo se, että jos tavara on yhdellä piirillä, ei oikein voi enää leikata pienemmiksi paloiksi. Valmistuskustannuksetkaan tuskin hirveästi halpenisivat vaikka nanometrimäärää kasvattaisi. Hinta muodostuu lähinnä vaan kysynnän ja tarjonnan epäsuhdasta.
 
Tietty yhtenä vaihtoehtona on vähän karsia sitä bloattia softasta ja optimoida koodeja. Onhan se nyt helvetin outoa, jos vaikka reititintä ei voi tehdä ilman 8 GIGAtavun ssd-piirejä, kun samaan aikaan OpenWRT on vasta alkanut siirtämään eläkkeelle noita 4-8 MEGAtavun NOR-flashejä. 4 gigatavuun mahtuu jo kokonainen työpöytädistro kehitystyökaluineen (kääntäjät, IDE:t jne).

Tosin noissa häntäpään laitteissa alkaa olla jo se, että jos tavara on yhdellä piirillä, ei oikein voi enää leikata pienemmiksi paloiksi. Valmistuskustannuksetkaan tuskin hirveästi halpenisivat vaikka nanometrimäärää kasvattaisi. Hinta muodostuu lähinnä vaan kysynnän ja tarjonnan epäsuhdasta.
En pistäisi rahojani likoon sen puolesta, että jopa suurin osa ohjelmistoalasta optimoi koodejaan hyvinkin merkittävästi, kun tilanne mennee ohi muutamassa vuodessa joko tekoälykuplan puhkeamisen tai tuotantokapasiteetin kasvattamisen myötä. Jossain määrin tällaista positiivista kehitystä voi toki tapahtuakin.
 
Tietty yhtenä vaihtoehtona on vähän karsia sitä bloattia softasta ja optimoida koodeja. Onhan se nyt helvetin outoa, jos vaikka reititintä ei voi tehdä ilman 8 GIGAtavun ssd-piirejä, kun samaan aikaan OpenWRT on vasta alkanut siirtämään eläkkeelle noita 4-8 MEGAtavun NOR-flashejä. 4 gigatavuun mahtuu jo kokonainen työpöytädistro kehitystyökaluineen (kääntäjät, IDE:t jne).

Tosin noissa häntäpään laitteissa alkaa olla jo se, että jos tavara on yhdellä piirillä, ei oikein voi enää leikata pienemmiksi paloiksi. Valmistuskustannuksetkaan tuskin hirveästi halpenisivat vaikka nanometrimäärää kasvattaisi. Hinta muodostuu lähinnä vaan kysynnän ja tarjonnan epäsuhdasta.

Mutta kun se tila ja jopa se internet-datasiirto on (ainakin ollut) niin halpaa verrattuna optimointiin, että ei kannatti laittaa se isompi tila. Nyt on sitten vähän myöhäistä reagoida lyhyellä varoitusajalla.

Oma (lähi-) verkkoon kytketty tulostin vaatii 500–600 megatavun verran (pakattuna) tiedonsiirtoa verkosta per ajuripäivitys. Oletan, tai pelkään, että siellä on varmaan kokonainen laiskasti optimoimaton Linux-distro tulostimessa avaamassa sen mahdollisimman suuren määrän tarpeetonta hyökkäyspintaa kaapata tulostin bottiverkkoon... Toki voi olla vaan laiskasti toteutettu päivitystapa, ja ”vain” sen gigatavun verran tulostimen päässä mitään, tai vieläkin vähemmän.
 
En pistäisi rahojani likoon sen puolesta, että jopa suurin osa ohjelmistoalasta optimoi koodejaan hyvinkin merkittävästi, kun tilanne mennee ohi muutamassa vuodessa joko tekoälykuplan puhkeamisen tai tuotantokapasiteetin kasvattamisen myötä. Jossain määrin tällaista positiivista kehitystä voi toki tapahtuakin.
Joo siis kyllä tuo suunta valitettavasti on aina bloatimpaan päin. Autoissakin on pian 600 miljoonaa riviä koodia. Ja arvio on, että määrä tuplaantuu 12kk aikajaksolla. Eli pian autoissakin on miljardeja rivejä koodia. Jännää on kehitys.
 
En pistäisi rahojani likoon sen puolesta, että jopa suurin osa ohjelmistoalasta optimoi koodejaan hyvinkin merkittävästi
Sulautettujen parissa puuhastelevat saattavat optimoidakin, mutta muutoin, en pistäisi minäkään. Oman kokemukseni mukaan lähes poikkeuksetta etusijalla on tehdä uusia järjestelmiä tai uusia toiminnallisuuksia vanhoihin järjestelmiin, koska bisnes vaatii. Hyvä jos saadaan edes bugit korjattua ja haavoittuvuudet paikattua.
 
AI on tullut jäädäkseen ihan samasta syystä kuin sähkö, internet ja älypuhelimet – se on yksinkertaisesti ylivoimainen työnteossa. Kun yksi ihminen pystyy tekoälyn avulla tekemään saman työn nopeammin, laadukkaammin ja laajemmalla tietopohjalla kuin ennen kokonainen tiimi, paluuta entiseen ei ole. Yritykset eivät ota sitä käyttöön ideologisista syistä vaan siksi, että tuottavuus ja kilpailukyky pakottavat.

Uuden teknologian vastustaminen on historiallisesti aina näyttänyt samalta. Aikanaan väitettiin, että tietokoneet ovat turhia toimistoissa, internet on ohimenevä villitys ja että sähköposti ei korvaa faksia. Jotkut jopa vastustivat sähkövaloa, koska kaasuvalot “riittivät hyvin”. Lopputulos tiedetään. Ne, jotka sopeutuivat, menestyivät. Ne, jotka jäivät vastustamaan, jäivät jälkeen.

Tekoäly ei ole mikään hype-lelu vaan yleiskäyttöinen työväline, joka tehostaa ajattelua, analyysiä, sisällöntuotantoa ja päätöksentekoa. Se ei tarkoita, että kaikki työ katoaa, mutta työn tekemisen tapa on jo muuttunut pysyvästi. Sama kaava toistuu kuin ennenkin: ensin epäillään, sitten vastustetaan, lopulta siitä tulee standardi. AI on nyt siinä pisteessä, ettei kehitystä enää pysäytetä.

Loppuun vielä prompti, jonka jokainen voi käydä tekemässä omalla tekoälyllä:
"Luo humoristinen sarjakuvamainen kuva suomalaisesta tietokonefoorumista. Kuvassa joukko pelinörttejä istuu kellarimaisessa pelihuoneessa RGB-valojen ja jättimäisten pelitietokoneiden ympärillä. Heillä on hupparit, kuulokkeet ja energiajuomat kädessä. Seinällä on julisteita 'RTX', 'FPS' ja 'Overclock'. Taustalla näkyy tyhjä hylly jossa lukee 'SSD / GPU OUT OF STOCK'. Yksi hahmo huutaa vihaisena 'AI pilaa kaiken!' ja toinen heiluttaa nyrkkiä kohti futuristista tekoälyrobotin hologrammia, joka hymyilee rauhallisesti. Ilmassa on keskustelupalstan kommenttikuplia kuten 'ennen oli paremmin', 'kaikki menee pilalle', ja 'en osta mitään missä on AI'. Kuvan tyyli on kevyt pilapiirros, humoristinen, selkeä, värikäs, korkea yksityiskohtaisuus."
 
AI on tullut jäädäkseen ihan samasta syystä kuin sähkö, internet ja älypuhelimet – se on yksinkertaisesti ylivoimainen työnteossa. Kun yksi ihminen pystyy tekoälyn avulla tekemään saman työn nopeammin, laadukkaammin ja laajemmalla tietopohjalla kuin ennen kokonainen tiimi, paluuta entiseen ei ole. Yritykset eivät ota sitä käyttöön ideologisista syistä vaan siksi, että tuottavuus ja kilpailukyky pakottavat.

Uuden teknologian vastustaminen on historiallisesti aina näyttänyt samalta. Aikanaan väitettiin, että tietokoneet ovat turhia toimistoissa, internet on ohimenevä villitys ja että sähköposti ei korvaa faksia. Jotkut jopa vastustivat sähkövaloa, koska kaasuvalot “riittivät hyvin”. Lopputulos tiedetään. Ne, jotka sopeutuivat, menestyivät. Ne, jotka jäivät vastustamaan, jäivät jälkeen.

Tekoäly ei ole mikään hype-lelu vaan yleiskäyttöinen työväline, joka tehostaa ajattelua, analyysiä, sisällöntuotantoa ja päätöksentekoa. Se ei tarkoita, että kaikki työ katoaa, mutta työn tekemisen tapa on jo muuttunut pysyvästi. Sama kaava toistuu kuin ennenkin: ensin epäillään, sitten vastustetaan, lopulta siitä tulee standardi. AI on nyt siinä pisteessä, ettei kehitystä enää pysäytetä.
Jokaista onnistunutta teknologiaharppausta kohti voi kaivaa historian arkistoista 1000 000 floppia jotka joko kokonaan hävisivät historian unholaan tai sitten jäivät niche-keksinnöiksi. Esimerkkeinä mainittakoot NFT:t, lohkoketju, 3D-televisiot/ruudut jne.

Se että heittelee jotain "internettiäkin aikanaan vastustettiin"-lausahduksia ei ole pätevä vasta-argumentti vaan tapa harhaanjohtaa itseään ja omaa ajatteluaan epävarman tulevaisuuden ja teknologian kohdalla.
 
AI on tullut jäädäkseen ihan samasta syystä kuin sähkö, internet ja älypuhelimet – se on yksinkertaisesti ylivoimainen työnteossa. Kun yksi ihminen pystyy tekoälyn avulla tekemään saman työn nopeammin, laadukkaammin ja laajemmalla tietopohjalla kuin ennen kokonainen tiimi, paluuta entiseen ei ole. Yritykset eivät ota sitä käyttöön ideologisista syistä vaan siksi, että tuottavuus ja kilpailukyky pakottavat.

Haluatko lukita vastauksen?

Tässä tuorein raportti aiheesta, viitataan myös tuohon seuraavan kappaleeseen viestissäsi

Vähän vanhempi
 
Ei kai siinä enää kauaa mene kun openai kaatuu ensin ja kupla puhkeaa. Petrus vois tehdä vaikka uutisen kun nvidia ja microsoft on jo siitä laivasta hyppäämässä.
Miten "tekniikkafoorumilla" voi olla käyttäjien tietämyksen tasoa huonompi kun paikallisessa Shellin kahvipöydässä?


Alla tältä päivältä uutinen, että viimeisimmällä rahoituskierroksella Open Ai keräsi rahoitusta 100 miljardia. Joo kyllä kaatuu ihan just ens viikolla ja kupla puhkeaa ja kukaan ei puhu tekoälystä enää koskaan. Kannattais tämänkin foorumin käyttäjien käydä lukemassa tuota ohjelmointiosiota ja sen tekoälykeskustelua. Saa toki copettaa ja elää omissa harhoissa ja unelmoida, että kupla puhkeaa ihan just ensi viikolla ja saisi taas halvalla RAM-muisteja. Siitä tietää että ei olla vielä missään kuplassa, kun niin moni ei osaa muuta hokeakaan kuin kuplakuplakupla on tämä kauheaa voi ei haluan takaisin halpoihin muistihintoihin yhyy äitii noi generoi sloppia haluan katsoa ennemmin autenttista ihmisten tekemää Mr. Beast kontsaa nyyyh.

 
Miten "tekniikkafoorumilla" voi olla käyttäjien tietämyksen tasoa huonompi kun paikallisessa Shellin kahvipöydässä?


Alla tältä päivältä uutinen, että viimeisimmällä rahoituskierroksella Open Ai keräsi rahoitusta 100 miljardia. Joo kyllä kaatuu ihan just ens viikolla ja kupla puhkeaa ja kukaan ei puhu tekoälystä enää koskaan. Kannattais tämänkin foorumin käyttäjien käydä lukemassa tuota ohjelmointiosiota ja sen tekoälykeskustelua. Saa toki copettaa ja elää omissa harhoissa ja unelmoida, että kupla puhkeaa ihan just ensi viikolla ja saisi taas halvalla RAM-muisteja. Siitä tietää että ei olla vielä missään kuplassa, kun niin moni ei osaa muuta hokeakaan kuin kuplakuplakupla on tämä kauheaa voi ei haluan takaisin halpoihin muistihintoihin yhyy äitii noi generoi sloppia haluan katsoa ennemmin autenttista ihmisten tekemää Mr. Beast kontsaa nyyyh.

Rahoituksen saaminen ei tarkoita, etteikö kyse voisi olla kuplasta, kts edellinen viesti
 
Eikä 100 miljardia tarkoita juuri koskaan moista summaa rahana, vaan jotain kummallisia kiertohimmeleitä, joissa ei välttämättä kulje lopulta rahaa ollenkaan. Enemmänkin noista tulee mieleen usan avustuslupaukset: kuten aikaoinaan Haitin hurrikaanituhojen aikaan. Olivat tyytyväisiä suurinumeroisesta avustuslupauksestaan, muta eivät toki antaneet yhtään rahaa ;-D

Mitä suurempia vitsilukuja suolletaan, sitä varmempi kupla. Sanoisin.
 
Miten "tekniikkafoorumilla" voi olla käyttäjien tietämyksen tasoa huonompi kun paikallisessa Shellin kahvipöydässä?


Alla tältä päivältä uutinen, että viimeisimmällä rahoituskierroksella Open Ai keräsi rahoitusta 100 miljardia. Joo kyllä kaatuu ihan just ens viikolla ja kupla puhkeaa ja kukaan ei puhu tekoälystä enää koskaan. Kannattais tämänkin foorumin käyttäjien käydä lukemassa tuota ohjelmointiosiota ja sen tekoälykeskustelua. Saa toki copettaa ja elää omissa harhoissa ja unelmoida, että kupla puhkeaa ihan just ensi viikolla ja saisi taas halvalla RAM-muisteja. Siitä tietää että ei olla vielä missään kuplassa, kun niin moni ei osaa muuta hokeakaan kuin kuplakuplakupla on tämä kauheaa voi ei haluan takaisin halpoihin muistihintoihin yhyy äitii noi generoi sloppia haluan katsoa ennemmin autenttista ihmisten tekemää Mr. Beast kontsaa nyyyh.

Openai tekee koko ajan tappiota. Nvidia on perääntymässä siitä sadasta miljardista ja microsoft vähentää yhteistyötä ja sen sijaan keskittyy enemmän omaan tekoälyn kehittämiseen. Taas pitäis openai:n saada jostain 40 miljardia, jotta saavat kulunsa maksettua. Kyse on vain siitä, koska homma menee täysin mahdottomaksi.
 
Vähän vanhempi
Toisaalta isot yritykset satsaavat AI-puolelle entistä enemmän tämän vuoden aikana. Lienee ihan tavanomaista, että isolta panostukselta vaaditaan isoa tulosta.
The four Big Tech "hyperscalers" — Microsoft (MSFT), Alphabet (GOOGL, GOOG), Amazon (AMZN), and Meta (META) — are on track to spend upward of $650 billion on artificial intelligence investments this year.
Spesifisesti microsoftista alla
Late last month, Meta told investors it would spend anywhere from $115 billion to $135 billion in 2026, while Microsoft's annual run rate for its 2026 fiscal year, which began in July, would put the company on pace for capital expenditures of $145 billion.
Kaasua painetaan, ei jarrua
At the low end of that range, the four would spend about $635 billion, marking a roughly 67% spike from the companies’ $381 billion in expenditures in 2025.
 
Openai tekee koko ajan tappiota. Nvidia on perääntymässä siitä sadasta miljardista ja microsoft vähentää yhteistyötä ja sen sijaan keskittyy enemmän omaan tekoälyn kehittämiseen. Taas pitäis openai:n saada jostain 40 miljardia, jotta saavat kulunsa maksettua. Kyse on vain siitä, koska homma menee täysin mahdottomaksi.
Muistan lukeneeni jo viime syksyllä jonkin uutisen jossa joku nVidialla sanoi ettei kyseessä ole "kupla".
 
Lieneekö tilanne se, että kun AI firmat investoineet jo miljardeja konesaleihin niin tässä kohtaa vetäytyminen voisi tuottaa ikäviä kysymyksiä sijoittajilta ja nämä saattaisivat odottaa jopa rahojaan heti takaisin. Mutta tilannetta saadaan venytettyä kun kipataan lisää rahaa ja lupaillaan, että kyllä se kohta lentää. Ei taida Nvidian H100 raudat tms maksaa itseään koskaan takaisin.

Itse uskon, että neuroverkoista ja LLM:stä kehittyy pitkässä juoksussa elämää parantavia asioita, mutta ehkä ne loputtomat chatbotit ei ole muuta kuin puhuva pää v2.
 
Lieneekö tilanne se, että kun AI firmat investoineet jo miljardeja konesaleihin niin tässä kohtaa vetäytyminen voisi tuottaa ikäviä kysymyksiä sijoittajilta ja nämä saattaisivat odottaa jopa rahojaan heti takaisin. Mutta tilannetta saadaan venytettyä kun kipataan lisää rahaa ja lupaillaan, että kyllä se kohta lentää. Ei taida Nvidian H100 raudat tms maksaa itseään koskaan takaisin.
Kyllähän pokerissakin kasvatetaan panosta potin kasvaessa. Taitaa vaan Altmanilla olla kädessä kakkosseiska eri maata, vaikka muuta koittaakin kovasti uskotella...
 
Sulautettujen parissa puuhastelevat saattavat optimoidakin, mutta muutoin, en pistäisi minäkään. Oman kokemukseni mukaan lähes poikkeuksetta etusijalla on tehdä uusia järjestelmiä tai uusia toiminnallisuuksia vanhoihin järjestelmiin, koska bisnes vaatii. Hyvä jos saadaan edes bugit korjattua ja haavoittuvuudet paikattua.
Tämä valitettavasti vastaa omaakin kokemustani ainakin jotakuinkin.
 
Tämä valitettavasti vastaa omaakin kokemustani ainakin jotakuinkin.
Tuo koodimäärä on jo ongelma. Monissa open source -projekteissa jatkuvuus on nostettu ongelmaksi kun vanhat kehittäjät kuolevat/väsyvät. Ei ole eksponentiaalisesti kasvanut se osasto.

Yksi koodari pystyy perinteisin menetelmin generoimaan päivässä luokkaa pari tuhatta riviä koodia (olettaen että on tuotantokoodia eikä lelu). Pyöristyy kokousten, lomien jne. takia alle 500t riviin vuodessa. Kaikissa projekteissa missä itse olen ollut, tuo vauhti noudattaa enemmänkin logaritmifunktiota pidemmällä aikavälillä. 500t sijaan joku 50t voi olla realistisempi kypsässä projektissa.

Nyt jos järjestelmässä on 600 miljoonaa riviäkin kuten tulevaisuuden autoissa, pelkkä ylläpito on täyspäiväinen työ kymmenille tuhansille. Päälle kaikki uuden kehitys. Tämä sillä oletuksella, että on palkattu pelkkiä superosaajia ja kaikki tykittävät 100% teholla joka päivä joka vuosi. Valitettavasti todellisuus on ihan jotain muuta.

Levytilan ja muistin kannalta koodi ei ole se isoin ongelma tällä hetkellä onneksi. Enemmänkin kaikki tehottomasti toteutetut muistivaraukset ja "liian" korkealaatuiset assetit. Esim. UEFI:n taustakuva voi olla nykyään 720p, 1080p ja 4k-tason BMP-kuvia ja sen takia SPI NOR -piirille ei mahdukaan vaikka kaikki AM4-kantaisten prosessorien alustuskoodit kun ne kuvat vievät 3+6+24 MB jo tilaa.
 
Miten "tekniikkafoorumilla" voi olla käyttäjien tietämyksen tasoa huonompi kun paikallisessa Shellin kahvipöydässä?


Alla tältä päivältä uutinen, että viimeisimmällä rahoituskierroksella Open Ai keräsi rahoitusta 100 miljardia. Joo kyllä kaatuu ihan just ens viikolla ja kupla puhkeaa ja kukaan ei puhu tekoälystä enää koskaan. Kannattais tämänkin foorumin käyttäjien käydä lukemassa tuota ohjelmointiosiota ja sen tekoälykeskustelua. Saa toki copettaa ja elää omissa harhoissa ja unelmoida, että kupla puhkeaa ihan just ensi viikolla ja saisi taas halvalla RAM-muisteja. Siitä tietää että ei olla vielä missään kuplassa, kun niin moni ei osaa muuta hokeakaan kuin kuplakuplakupla on tämä kauheaa voi ei haluan takaisin halpoihin muistihintoihin yhyy äitii noi generoi sloppia haluan katsoa ennemmin autenttista ihmisten tekemää Mr. Beast kontsaa nyyyh.

Meanwhile NVIDIAn aiemmin lupaama 100 miljardia muuttui juuri 30 miljardiksi, asiasta tullee oma (lyhyt) uutisensa kunhan selkeytyy tilanne enemmän kuin otsikon verran
 
Viimeksi muokattu:
Meanwhile NVIDIAn aiemmin lupaa 100 miljardia muuttui juuri 30 miljardiksi, asiasta tullee oma (lyhyt) uutisensa kunhan selkeytyy tilanne enemmän kuin otsikon verran
Tämä uusi diili on aika erilainen kuin vanha diili mitä yrittivät tehdä. Nvidia osallistuu rahoituskierrokseen ja saa sillä osuuden openai:sta. Rahoituskierroksen kooksi on arveltu 100 miljardia mistä nvidian osuus 30 miljardia.
1771595108608.png

 
AI:n ongelma on se, että sitä jaetaan ilmaiseksi ja liian halvalla. Ei pitäisi tarjota, kun joku max 7pv triali ja ei mitään jatkuvaa ilmaista. Tuo nykyinen openai kuukausimaksu on aivan naurettavan halpa verratuna tuottavuusbuustiin mitä se tuo. Hinnan saisi mielestäni kymmenkertaistaa.
 
AI:n ongelma on se, että sitä jaetaan ilmaiseksi ja liian halvalla. Ei pitäisi tarjota, kun joku max 7pv triali ja ei mitään jatkuvaa ilmaista. Tuo nykyinen openai kuukausimaksu on aivan naurettavan halpa verratuna tuottavuusbuustiin mitä se tuo. Hinnan saisi mielestäni kymmenkertaistaa.
Tuoreimmat luvut jenkeistä kertoivat juuri että 80% firmoista ei ole saanut mitään tuottavuushyötyjä tekoälyn käytöstä
 
Tuo koodimäärä on jo ongelma. Monissa open source -projekteissa jatkuvuus on nostettu ongelmaksi kun vanhat kehittäjät kuolevat/väsyvät. Ei ole eksponentiaalisesti kasvanut se osasto.

Yksi koodari pystyy perinteisin menetelmin generoimaan päivässä luokkaa pari tuhatta riviä koodia (olettaen että on tuotantokoodia eikä lelu).

Ei todellakaan pysty. Todellinen keskimääräinen luku on todella paljon pienempi.

Parituhatta koodiriviä päivässä on nimenomaan lelukoodia.

Tai no, toki aina voi koodata huonoa bloattia koodia jossa koodi, joka olisi järkevää toteuttaa 50 rivillä on toteutettu 2000 rivillä hirveällä copypastella siten että siellä on samat asiat ziljoonaan kertaan, mutta se 2000 rivin koodi on tällöin sekä hitaampi että vaikeampi ylläpitää kuin se saman asian tekevä 50 rivin järkevä koodi.

Mutta siinä, että tuotetaan bloattia vaikeasti ylläpidettävää kurakoodia jossa on paljon koodirivejä nuo AI-agentit kyllä loistavat.
 
Ei todellakaan pysty. Todellinen keskimääräinen luku on todella paljon pienempi.

Parituhatta koodiriviä päivässä on nimenomaan lelukoodia.
Meinasin tilannetta, jossa on aika verboosi kieli ja apuna kuitenkin jo 25 vuotta käytössä olleet IDE-työkalut. Esim. IntelliJ IDEA:lla voi nopeasti generoida Javalla parin sadan rivin luokan antamalla pelkät jäsenmuuttujien nimet ja tyypit. Samoin luokkiin generoi nopeasti kanonisen olion equals / hashcode / compareto / tostring / getter / setter -tyyliset perusjutut. Riippuen miten koodin jakaa, jokaista lohkoa varten voi tulla 2 riviä sulkeita. Jos tuottavuun mittariksi ottaa esim 10 riviä/päivä, se tarkoittaa että 5 tyhjää lambdaa avaamalla teki jo päivän työn.

Tutkimuksissahan (Brooks, McConnell, yms.) on saatu luokkaa 10-50 riviä/päivä keskimäärin, mutta jos pääsee vaikkapa projektiin, jossa luodaan POC ensin tyhjästä, niin tuollaista generoitua peruskoodia voi nopeasti syntyä tuhansia rivejä. Ei se välttämättä ole edes kovin huonoa - se on tietenkin kypsyysasteeltaan ihan eri kuin 10 vuotta vanhassa softassa. Toisaalta jos katsoo vanhoja koodikantoja, niissäkin on paljon sellaista "roskaa", jonka voisi siivota pois. Ottaa esimerkiksi vaikka 20 vuotta vanhan Java-koodin, niin siitä voi leikata pois helposti 75% nykyaikaisilla ominaisuuksilla. Kuitenkin noita vanhoja softia ylläpitää ihan eri kaiffarit kuin ne, jotka tuottavat uutta koko ajan.
 
Meinasin tilannetta, jossa on aika verboosi kieli ja apuna kuitenkin jo 25 vuotta käytössä olleet IDE-työkalut. Esim. IntelliJ IDEA:lla voi nopeasti generoida Javalla parin sadan rivin luokan antamalla pelkät jäsenmuuttujien nimet ja tyypit. Samoin luokkiin generoi nopeasti kanonisen olion equals / hashcode / compareto / tostring / getter / setter -tyyliset perusjutut.
Se, että on luokka jonka koodi on melkein pelkkää setteriä ja getteriä on nimenomaan sitä bloattia kurakoodia.

Överiksi mennyt olio-ohjelmointi on ehkä pahin asia mitä ohjelmoinnille on viimeiseen 40 vuoteen tapahtunut.

Nykyään >90% koodareista ei enää osaa tehdä tietorakenteita, joilla on nopea laskea mitään, koska kaikesta tehdään olioita (joissa data menee ihan väärään järjestykseen esim. vektoroinnin kannalta).
 
Se, että on luokka jonka koodi on melkein pelkkää setteriä ja getteriä on nimenomaan sitä bloattia kurakoodia.

Överiksi mennyt olio-ohjelmointi on ehkä pahin asia mitä ohjelmoinnille on viimeiseen 40 vuoteen tapahtunut.

Nykyään >90% koodareista ei enää osaa tehdä tietorakenteita, joilla on nopea laskea mitään, koska kaikesta tehdään olioita (joissa data menee ihan väärään järjestykseen esim. vektoroinnin kannalta).
Jees, joo tämä on ihan ok näkemys. Meinasin vaan, että tuo on kuitenkin se koodi, mitä paljon on tehty, vaikkei se kovin hyvä käytäntö ole. Ylläpidon kannalta tuo on tietysti joka tavalla huonompi juttu.

Jos palaa tuohon yhteyteen tallennusmedian koosta, niin nämä isotkaan koodimäärät eivät taida selittää kovin hyvin tilantarpeen kasvua, kun koodin tuottaminen on niin hidasta. Se iso bloatti tulee ehkä jotenkin siinä, miten duplikoidaan ja kääritään mukaan tarpeettoman paljon kaikkea. Koitin selvitellä GPT:n kanssa esim. zoom-ohjelman kasvua viime vuosina ja trendi olisi aika vakaa vuosittainen kasvuprosentti:

Zoom growth is approximately exponential but slowing. Fit exponential curve:

2018: 350 MB
2026: 939 MB

CAGR=(939/350)^(1/8)−1
CAGR≈13.2% per year

zoomsize.png
 

Statistiikka

Viestiketjuista
301 007
Viestejä
5 141 332
Jäsenet
81 893
Uusin jäsen
Kastikus

Hinta.fi

Back
Ylös Bottom