AI-koodausavustimet, keskustelua AI-avustetusta koodaamisesta/skriptaamisesta/dokumentoinnista/...

En sanonut, etteikö algoritmejakin piiloteltaisi. Varsinkin jos ne on saatu luotua tuosta datasta, niin ne on vähintään yhtä arvokkaita.

Ja miksi taas tuot koko maailman koodin tähän? Olenko väittänyt että jotain javascript-kikkaretta, joita on jo maailmassa miljoona ei voi tehdä AI:lla ja tunkea vaikka open sourceksi jos siltä tuntuu? Mutta kun minä otin esille oman tilanteeni niin miksi veessä tuo on relevanttia? Miksi koko ajan tahallaan sotket asiaa? Mikä ihmeen tarve sinulla on yrittää vähätellä asiaa? Teetkö noin yleisemminkin, kun joku kertoo ongelmastaan niin sinä vastaat, että ei tuolla ole väliä kun suurimmalla osalla ihmisistä ei ole tuollaista ongelmaa? Koska käytännössä sinä teet just sitä. Argumenttisi ovat tässä ihan nollatasoa, tai oikeastaan arvoltaan negatiivisia, kun aktiivisesti yrität estää asiallisen keskustelun.
 
Ja miksi taas tuot koko maailman koodin tähän?
Keskustelun aihe on koodausavustimet ja koodi yleensä eikä vain joku pieni niche. Jos haluaa miettiä esim. koodausavustimien ja ai:n vaikutusta ohjelmistoihin niin lienee relevanttia keskustella koko ohjelmistoalasta eikä keskittyä yhteen puuhun näkemättä metsää.

Algoritmeista jos haluaa keskustella niin voi miettiä miten ison osan tunnetuista algoritmeista ja tieteellisistä papereista saa tehtyä AI-avusteisesti todella kätevästi koodiksi. Aika harva ohjelmistoalan seniori pärjäisi IMO matematiikkakisassa tai atcode koodauskisassa, AI:lla tuon kyvykkyyden saa kuka tahansa. Kehitys ei myöskään ole pysähtynyt imo/atcoder viime kesän tasoon. Päivä päivältä vähenevät asiat mitä pätevä ihminen kera AI:n ei saa kloonattua jos joku on jo asian X tehnyt ja kyse on puhtaasta koodista/algoritmista eikä esim. miljoonista ihmisistä kerätystä datasta mitä ei voi syntetisoida.
 
Itse kävin pitkän keskustelun Ouran tekoälyn kanssa ja vaikutti ihan ”osaavalta”. Olen ”moniunivammainen” ja antoi muutamia järkevältä kuulostavia vinkkejä.
 
Haluaisitteko te, että vaikka hengityskoneen koodit on vibe-koodattu? Miten paljon tuollaisen koodin tapauksessa olisitte valmiita jättämään AI:n harteille? Pitäisikö ihmisten ihan oikeasti ymmärtää se koodi? Uskaltaisitteko luottaa, että AI tekee vedenpitävät speksit kun kyse on ihmishengistä?

Suoraan sanottuna tuollaisessa käyttökohteessa haluaisin olevan mahdollisimman vähän yhtään mitään koodia, oli se sitten ihmisen, AI:n tai apinan kirjoittamaa. :D

--

Jos mennään vähän arkisempiin sovelluksiin, niin oma kokemus on hyvin pitkälti se, että AI on jo nyt todella hyvä renki, joka osaa varsin itsenäisesti analysoida ja yhdistellä varsin monimutkaistakin dataa ja tehdä siitä ihan järkeviä päätelmiä tieteellisen kirjallisuuden perusteella. Olen monta kertaa päässyt yllättymään kuinka hyvä ja oivaltava se voi oikeasti olla ihan vaan täysin suljettua dataakin katsomalla. Kaikenlaisen tutkivamman koodailun, iteroinnin ja pikkutarkan analysoinnin tekemisessä tekoäly on aivan älyttömän hyvä jo nyt ja väitän, että itsellä on kokonaisoutput omissa töissä AI:n ansiosta ihan oikeasti jossain 2-4x tasolla aiemmasta. Osittain varmaan liittyy ihmistyyppiinkin, kun tällaiselle AC/DC-miehelle jatkuva kontekstinvaihto, moneen suuntaan kerrallaan eteneminen ja asioiden välillä pomppiminen AI-avusteisesti pitää homman mielenkiintoisena, että tulee puolivahingossa itsekin tehtyä oikeasti enemmän töitä.

Toisaalta surkea isäntä se AI on edelleen ja renkinäkin sellainen, että perään saa olla katsomassa koko ajan. Mitä itsevarmempia julistuksia se tekee, sitä suuremmalla syyllä pitää kyseenalaistaa ja pyytää sitä tarkistamaan kuinka päätyi tähän lopputulokseen. Sanoisin, että noin yksi kerta kolmesta lopputulos on, että AI toteaa "hups, totesinkin vähän liian jyrkästi, oikeasti onkin x y z". Eli oma kokemus on, että ei se yleensä ole väärässä, mutta on hösöttäessään hukannut juuri sopivasti kontekstia ja nyanssia, että väittämät eivät kestä kriittisempää tarkastelua.

Muutenkin olen edelleen sitä mieltä, että joo kannattaa speksata hyvin, tehdä suunnitteludokkarit sun muut, mutta siitä eteenpäin homma kannattaa tehdä pienemmissä paloissa, vähän väliä kontekstia tyhjennellen ja muutenkin perään katsoen. Alkuun tuli annettua isompia kokonaisuuksia, mutta hyvin pian totesin, että tunnin ruksuttelun lopputuloksessa ei välttämättä ole päätä eikä häntää, koska jossain kriittisessä kohdassa AI on ymmärtänyt väärin tai oikaissut ja koko homma on lähtenyt pois raiteiltaan.

En tiedä onko kyseessä vain Clauden nykyinen laiskottelutaipumus, vai päteekö sama muihinkin frontier - malleihin, mutta tänään oli loistava esimerkki siitä, että tarkkana saa olla: tutkin yhden luonnonilmiön mallintamista tai sen mallin parantamista ja tähän tarkoitusperään olin laittanut Clauden tutkimaan kolmea eri potentiaalista reittiä, joilla hommaa voisi alkaa lähestymään. Tulosta tuli ja yksi menetelmistä vaikutti selvästi vahvemmalta kuin muut. Claude oli käynyt läpi ison nipun tutkimuskirjallisuutta ja tehnyt kaikista muistiinpanot tiedostoihin ja pystyttänyt erinäisiä protosovelluksia kustakin lähestymistavasta. Tässä alkuvaiheessa kun kokonaisuutta vasta hahmotellaan, en ollut hirveän tarkasti käynyt läpi kaikkea mitä Claude taustalla oli puuhaillut, mutta sitten kun alkoi olla aika tehdä päätöksiä siitä mitä polkua lähden itse seuraamaan tarkemmin, rupesin käymään läpi Clauden muistiinpanoja luetusta kirjallisuudesta. Siinä vaiheessa kävi ilmi, että Claude ei ollutkaan oikeasti lukenut kokonaisuudessaan yhtä artikkelia, johon yksi menetelmistä nojasi lähes kokonaisuudessaan, vaan pelkän tiivistelmän. Muistiinpanoissa oli kyllä tästä merkintä, mutta Claude ei ollut mitenkään maininnut tästä. Noh, tällä kertaa lopputulos oli siinä mielessä onnellinen, että Claude oli saanut keskeisimmät luvut ja havainnot ongittua pelkistä tiivistelmistä, mutta koko artikkelin lukemalla kävi ilmi, että yksi laskennan vähäpätöisempi alikomponentti olisi mennyt aika pahasti pieleen.
 
Viimeksi muokattu:
Itse kävin pitkän keskustelun Ouran tekoälyn kanssa ja vaikutti ihan ”osaavalta”. Olen ”moniunivammainen” ja antoi muutamia järkevältä kuulostavia vinkkejä.
Uni on melko yksinkertainen juttu. Ei oura ole keksinyt mitään sellaista mitä ei sais yhdelle a4:lle printattua tai jos haluaa isomman kontekstin niin why we sleep kirja. Toki tämä ei ole estänyt sitä, että jos uni kuoppaan kurkistaa niin löytyy vaikka minkälaista käämeöljyä esim. youtuben puhuvilta päiltä.

Unihygienia on helppo ymmärtää, mutta vaikeus siinä että pitäisi jaksaa ja pystya noudattamaan protokollaa, samalla lailla, joka päivä, alkaa jo aamulla kun herää. Jonkinlaista tuunausta joutuu tekemään pärstäkohtaisesti, mutta siinäkin työ tehtävä itse. Esimerkiksi kuinka lähellä nukkumaanmenoa syö ja mitä syö.
 
Heitän keskustelun väliin Hermes Agent asiaa, 0.12.0 päivityksessä tuli tuetuksi rinnakkaiset agentit ja Kanban työkulku.
Testasin tuota niin, että loin suunnittelija, review, koodari, dokumentoija ja security agentit, jokainen on omilla api avaimillaan ja omalla muistilla.
Työn kulku suunnittelinja<->review <-> sitten sopivat agentit.

Pistin tuossa idean että Soldat 2 serverille (Hermes samalla palvelimelle) luodaan scripti, millä pelaaja voi kysellä omia tilastoja ja nähdä serverin top 3 pelaajaa jne.
Siellä ne sitä porukalla pyöritteli ja sai homman valmiiksi, täytyy käydä jossain välissä toteamassa että mitä ne sai aikaiseksi kunhan ehtii.

Mutta pitkälle on tultu siitä yksittäisestä chatbotista.

1778084941374.png
 
Niin, koneoppiminen ei nimenomaan ole, mutta nykyään kaikki ML leimataan AI:ksi koska jälkimmäinen on hypeä.

Mutta jos lähdetään tuollaiselle linjalle selvityksessä, niin se vaatii ihan helvetisti dataa. Siinä vaiheessa en näe oikein enää edes järkeä sotkea Ouran sormusta hommaan.
Eli data on arvokasta. Ja todellakin sotkisin Ouran sormuksen hommaan. Ensimmäisenä tutkisin Ouran patentit. Tai en minä, AI saisi tehdä sen minun puolesta ja tehdä yhteenvedon.

Ja jos tekisitkin noin, niin mitä siis etsisit AI:lla sieltä?
En minä tiedä mitä minä etsisin AI:lta sieltä. En ole kiinnostunut älysormuksista. Tiedän itsekin milloin minulla on nälkä.
 
Keskustelun aihe on koodausavustimet ja koodi yleensä eikä vain joku pieni niche.
No jo on asenne. Jos joku siis puhuisi täällä jostain vähemmän suositusta avustimesta, niin sinä voisit tunkea sekaan selittämään jotain epärelevanttia vaikka Claudesta? Eihän tuollaisessa ole mitään järkeä, että asioista voi keskustella vain hyvin yleisellä tasolla, mistään detskuista ei voi keskustella tässä ketjussa.
 
Suoraan sanottuna tuollaisessa käyttökohteessa haluaisin olevan mahdollisimman vähän yhtään mitään koodia, oli se sitten ihmisen, AI:n tai apinan kirjoittamaa. :D
I've got some bad news for you... sairaalalaitteissa on ihan hitokseen koodia. Ei niitä laitteita oikein muuten voi käyttää.
 
Claude codeen rajojen helpostusta:
Upea juttu, että saadaan lisää konesalikapasiteettia ai-avustimiin. Hieman harmittaa se, että tämä kertonee ettei xai:n llm:t tule olemaan lähiaikoina kilpailukykyisiä koodaushommissa(miksi muuten myydä kapasiteettia kilpailijalle). Ehkä cursor+xai yhteistyö poikii jotain, mutta sen lopputulosta ei nähtäne ennen kuin loppuvuodesta/2027 puolella.
 
Tuossa Clauden viikkolimit kuitenkin ilmeisesti pysyy samana.
Saa nähdä muuttaavatko pellinalla mallien parametreja niin että idioottimoodi poistuisi. Mielenkiinnolla seuraan redditiä. Ei ole näkynyt wow 4.7 on paras koskaan. Enempi porukka kaipailee 4.6:sta takaisin siltä ajalta kun malli oli vielä hyvävointinen.
 
Ja näin se alkaa redditkin heräileen, että codex myös menee idoottimoodiin toisinaan. Uskomatonta scheissea, jos jotain hyvää niin vieroittaa näistä koodausharrastuksista hyvin. Ehkä se kalastuskausi oikeasti alulle, ei ole vielä kerinnyt siimoja liottamaan tälle keväälle.

Jännästi sekä claude dumb mode ja codex dumb modessa reddit heräilee vajaa viikko sen jälkeen kun itse huomannut että jotain on pahasti pielessä. Internet vähän hidas nostamaan höyryt pinnalle.
Three days ago this exact same set of prompts and model built things out perfectly. No issues whatsoever. Does anyone have a foolproof set of tests to check these models out before turning agents loose with write permissions on a project?
This has happened to me today too.
Codex (using 5.5 extra high) has been really incredibly stupid for me today on a few occasions

Useampia ketjuja aiheesta
1778103692654.png

1778103723682.png


Lol, joku tehnyt bugirapsan openai:lle. Suap nähdä saako samanlaisen nothing to see here, close ticket kuin openai teki clauden osalta: Severe output quality variance across accounts and time periods · Issue #18104 · openai/codex
 
Viimeksi muokattu:
Mitkä työkalut olisi hyvät home assistantin + noderedin kanssa tekemiseen, niin ettei anna kuitenkaan ai käpälöidä koko asennusta.

Käytin maksullista gemini kerran ja toimi ihan ok, mut aika paljon cope pasta edes takas on aina. Onko jotkut työkalut millä voisi kokeilla, ehkä jopa ilmaiseksi.
 
Codexia ja cursoria voi koittaa ilmaiseksi.
Mitkä työkalut olisi hyvät home assistantin + noderedin kanssa tekemiseen, niin ettei anna kuitenkaan ai käpälöidä koko asennusta.

Käytin maksullista gemini kerran ja toimi ihan ok, mut aika paljon cope pasta edes takas on aina. Onko jotkut työkalut millä voisi kokeilla, ehkä jopa ilmaiseksi.
 
Ei nyt varsinaisesti tee liiketoiminnalle hyvää, tuo jos joku (hintojen nousun lisäksi) ajaa firmat käyttämään omia malleja. Jos koko bisnesmalli perustuu noiden käyttämiseen ja sitten säännöllisesti mallit on kelvottomia, niin tilanne on aika kestämätön.
 
Niin, kohta voi olla ihan realismia pikkuisille ketterille puulaakifirmoille ostaa parit RTX 6000 Prot ja pyörittää lokaaleja LLM:iä. Nykytahdilla ei mene edes kauaa, että ”maksavat itsensä takaisin” ja laatu perus koodarille 90% nykyisistä lippulaivamalleista.
 
Kävin kuuntelemassa Anthtropicin esityksen Claudesta. Jatkossa claude ei tule enää olemaan innokas juniori ns "make it work asenne" vaan osaa myös kysyä apua jos ei saa ongelmaa ratkaistua
 
Kävin kuuntelemassa Anthtropicin esityksen Claudesta. Jatkossa claude ei tule enää olemaan innokas juniori ns "make it work asenne" vaan osaa myös kysyä apua jos ei saa ongelmaa ratkaistua

Eikös tuosta juuri täällä valitettu, että sen sijaan että se ryhtyisi töihin se mussuttaa vastaan ja kyselee tyhmiä? :lol: (Eli toimii kuten ihan oikeakin seniori vs. juniori :rofl:)
 
Niin, kohta voi olla ihan realismia pikkuisille ketterille puulaakifirmoille ostaa parit RTX 6000 Prot ja pyörittää lokaaleja LLM:iä. Nykytahdilla ei mene edes kauaa, että ”maksavat itsensä takaisin” ja laatu perus koodarille 90% nykyisistä lippulaivamalleista.
Ei se ehkä kutenkaan, aika on rahaa, eikä ole 90% parhaasta pilvestä. tollanen rtx 6000 pro + kone ympärille maksaa helposti 11ke+sähköt päälle. Yhden tommosen pömpelin jakaa 5v ajalle niin hintaa 183e/kk ennen kuin miettii sähköjä ja masiinan ylläpitoa. Eikä noi rtx6000 prot edes ole kovin nopeita tai kehity vuodesta toiseen. Ero millaista pilveä saat 1v,2v,3v,4v,5v päästä 200e/kk hinnalla versus rtx6000 pro repeää nykyistä isommaksi. Syksyllä pilveen tulee vera-rubin, 2027 vera rubin ultra, 20208 feynman jne. Toki pienet mallit paranevat, mutta samalla pilvestä saa myös pientä mallia entistä halvemmalla kiitos sekä softa ja mallioptimointien ja paranevan raudan.

Se päivä kun lokaali riittää laajamittaisempaan softakehitykseen kattaen 90% pilven kyvykkyydestä niin nvidia, amd, konesalirakentaminen yms. romahtaa maksimit. Ei ole pumpum-raudassa samanlaista marginaalia kuin pilvessä.

Ennen kuin lokaali vie nähtäneen vaihe missä ketterät pikkufirmat vuokraa suoraan konesalista parempaa rautaa ja ajavat siellä omaa versiota isoista open source malleista. Ainoa joka vetää "välistä" on rautaa vuokraava taho, jää mallinomistajan vero ja säädöt välistä. Samalla pystyy helposti skaalaamaan laskentakapasiteettia tarpeen mukaan eikä tarvi itse ylläpitää rautoja kun kuitenkin jotain laukeaa aina kun rautaa huudatetaan täydellä kuormalla 24/7.
 
Viimeksi muokattu:
Tuolla parilla 6000:lla tekee kuitenkin jo helposti joku puolentusinaa koodaria hommia. Claude tuolle porukalle on helposti 1200€/kk eli alle 2 vuodessa on maksanut itsensä takaisin. Eikä tarvitse hermoilla hinnanousuja tai mallien tyhmentämisiä ja koodi on asiakkaan mielestä paremmassa paikassa.
 
Tuolla parilla 6000:lla tekee kuitenkin jo helposti joku puolentusinaa koodaria hommia. Claude tuolle porukalle on helposti 1200€/kk eli alle 2 vuodessa on maksanut itsensä takaisin. Eikä tarvitse hermoilla hinnanousuja tai mallien tyhmentämisiä ja koodi on asiakkaan mielestä paremmassa paikassa.
Ei todellakaan tee, eikä pääse samoille kyvykkyyksille tai nopeuksille kuin paras pilvi. Ymmärrän nyt sun mielikuvan AI:n käyttäkelvottomuudesta/heikosta kyvykkyydestä jos käytössä on kuudelle devaajalle vain 2xrtx6000. Laitat agenttiloopin pyörimään mikä iteroi itsekseen speksiä vastaan tehden yksikkötestit, suorituskykytestit ja koodit niin yksi devaaja saturoi 6000:en 24/7 ajoon. Siinä kun eka looppia odottelee kirjottelee seuraavan tiketin jonoon jne.

Tätä nyt ei tarvi miettiä sen pidemmälle kuin vastaus kysymykseen "miksi konesaleja rakennetaan maksimit, miksi 6000:sta saa hyllystä suoraan ostettua mutta konesaliraudassa on vuoden odotusaika jos nyt tilaat" :) Sinä päivänä kun mun kaverit piilaaksosta kertoo että siirtyvät lokaalirautaan niin oon täällä ekana hypettämässä ja kerron että olen minäkin ostanut raudat kotiin ja vaihtanut malliin/frameworkkiin X.
 
Ei ole minun ideani, meillä on tuollaiset tulossa käyttöön tietylle porukalle, jolla koodi ei sitten todellakaan saa poistua tiloista. Eikä siellä millään loopilla koodata, kyse on sen verran spesiaalista hommasta.

Mutta joo, varmaan agenttihommat on sitten erikseen. En vain keksi esimerkiksi meillä yhtään hommaa, jossa kärsisi tuollaisella mallilla tehdä. On varmaan tosiaan ihan eri asia jos 24/7 antaa AI:n hakata koodia. Oletettavasti siinä ei paljon koodia katselmoida tai ymmärretä miten se toimii. Sikäli hassua, että ei ole kauan kun ilman muuta kaikki koodi katselmoidaan itse.
 
Ei ole minun ideani, meillä on tuollaiset tulossa käyttöön tietylle porukalle, jolla koodi ei sitten todellakaan saa poistua tiloista. Eikä siellä millään loopilla koodata, kyse on sen verran spesiaalista hommasta.

Mutta joo, varmaan agenttihommat on sitten erikseen. En vain keksi esimerkiksi meillä yhtään hommaa, jossa kärsisi tuollaisella mallilla tehdä.
En tunne ketään joka enää käyttää ai-avustimia muuten kuin loopissa. IDE:n aika on ohi. Looppi on paras tapa kun voit tehdä TDD:na. Ensin määrittelet testit, kirjoitutat testit, verifioit että testit mittaavat oikeat asiat. Sen jälkeen agentti iteroi toteutusta testejä vastaan. Jos tarvitaan suorituskykyä niin vielä benchmark testit. Oikeellisuus ja suorituskyky verifioidaan testeillä. Siinä kun agentti jauhaa looppia niin kirjoittelee seuraavia tikettejä, jos omissa aivoissa riittää kapasiteettia niin monta tikettiä eri loopeissa samaan aikaan. Loopit toimii hyvin myös käyttöliittymissä kun AI osaa katsoa kuvakaappauksista miltä asiat näyttävät. Voi käskeä verifioimaan loopissa hyvinkin paljon asioita niin saa valmiimman ulos ennen kuin itse alkaa manuaalisesti kokeilemaan/verifioimaan.

Pilvi on niin kyvykäs että se pystyy tuollaista looppia pyörittämään. Lokaalit agentit pystyvät samankaltaiseen mutta vaatii enemmän iteraatioita ja enemmän ihmisen valvontaa. Aika on rahaa, säästämällä ei alustatalouden aikana voiteta markkinaosuuksia. Nopeat syö hitaat.
 
Viimeksi muokattu:
Muuten aika samaa mieltä, mutta;

Ei se ehkä kutenkaan, aika on rahaa, eikä ole 90% parhaasta pilvestä. tollanen rtx 6000 pro + kone ympärille maksaa helposti 11ke+sähköt päälle. Yhden tommosen pömpelin jakaa 5v ajalle niin hintaa 183e/kk ennen kuin miettii sähköjä ja masiinan ylläpitoa. Eikä noi rtx6000 prot edes ole kovin nopeita tai kehity vuodesta toiseen. Ero millaista pilveä saat 1v,2v,3v,4v,5v päästä 200e/kk hinnalla versus rtx6000 pro repeää nykyistä isommaksi.
Aika on rahaa, mutta varsinkin pienemmillä firmoilla tuo raha on kuitenkin se määrittelevä tekijä. Tälläkin hetkellä Github Copilotin Business Enterprise (varmaan Suomessa IT-firmojen eniten käytössä oleva alusta) uusimmat mallit maksaa 15x tai joku taisi olla jopa 27x PRU. Toki nythän sekin on ilmeisesti muuttumassa kutsupohjaiseksi. Halpeneeko vanhat mallit kuitenkaan enää yhtä nopeasti kuin ennen? Kuitenkin aika paljon iteraatiokierroksia näillä nykyisilläkin malleilla.

Se päivä kun lokaali riittää laajamittaisempaan softakehitykseen kattaen 90% pilven kyvykkyydestä niin nvidia, amd, konesalirakentaminen yms. romahtaa maksimit. Ei ole pumpum-raudassa samanlaista marginaalia kuin pilvessä.
Näihin syydetään niin paljon rahaa ja myydään toistaiseksi täydellisellä alihinnoittelulla. Siksi näen todennäköisempänä tulevaisuudessa pienempien firmojen käyttävän kevyempiä vaihtoehtoja kun rahaa ei yksinkertaisesti ole tarpeeksi.
 
Muuten aika samaa mieltä, mutta;


Aika on rahaa, mutta varsinkin pienemmillä firmoilla tuo raha on kuitenkin se määrittelevä tekijä. Tälläkin hetkellä Github Copilotin Business Enterprise (varmaan Suomessa IT-firmojen eniten käytössä oleva alusta) uusimmat mallit maksaa 15x tai joku taisi olla jopa 27x PRU. Toki nythän sekin on ilmeisesti muuttumassa kutsupohjaiseksi. Halpeneeko vanhat mallit kuitenkaan enää yhtä nopeasti kuin ennen? Kuitenkin aika paljon iteraatiokierroksia näillä nykyisilläkin malleilla.
Ei ole mitään konkreettista syytä olettaa etteikö tokenien hinta tule alaspäin kun pidetään laatu samana. Sekin lienee ihan varmaa, että uudet frontier mallit ovat entistä isompia ja kalliimpia

Esim. nvidian vera-rubin tuo suurinpiirtein 10x suorituskyvyn versus nykyinen gb300. h2:lla alkaa konesaliasennukset. Realistinen kun huomioidaan sähkö+räkkien hinnannousu niin vera-rubin rauta yksistään vähintään puolittaa tokenien hinnan samalla kun tokeneita tulee 10x räkistä ulos versus gb300. Loppuvuodesta tulee myös amd:n mi450:en mikä lupaa vera-rubiniakin halvempia tokeneita(myyvät halvemmalla rautaa kuin nvidia).

Sama dynamikkkka jolla odottaa pienen lokaalimallin paranevan pätee myös konesaleissa ajettaviin malleihin. Jos odottaa ettei tokenien hinta enää halpene niin samalla vihjaa vahvasti että malleja ei enää saada parannettua kun mallin koko pysyy samana. Tarkoittaisi että ainoa tapa parantaa mallin kyvykkyyttä on parempi rauta johon mahtuu isompi malli ja suorituskyky riittää isomman mallin ajamiseen. Lokaalirauta ei oikein kehity mihinkään tässä skenaariossa versus pilvi päivittyy vuosittain.

imho. ei olla vielä siinä pisteessä että paraskaan malli minkä rahalla saa olisi ns. riittävän hyvä. Toki hienoa, että voidaan väitellä tästä asiasta, kun se kertoo miten pitkälle AI-avustimet ovat tulleen vuoden ja kahden vuoden takaisesta. Parin vuoden päästä ehkä ollaan siinä pisteessä että koodaus on ratkaistu ongelma ja ihmetellään että hups helvetti, massatyöttömyys kun tarvitaan vain tech/qa/... Lead+product manager kombon ihmisiä joiden tiiminä toimii kasa agentteja loopeissa.
 
Viimeksi muokattu:
En tunne ketään joka enää käyttää ai-avustimia muuten kuin loopissa. IDE:n aika on ohi.

Tässä mennään jo tosi vahvasti omaan kuplaan siinä tapauksessa. Suurin osa infraprojekteista ei käytä AI:ta ollenkaan tai välttämättä edes salli ollenkaan LLM:llä tehtyä koodia. Osa sallii hyvin vähän, mutta itsekään en hyväksy yhtään committia joka on tehty selvästi pelkästään AI:lla.

Kyllä käsin koodataan vielä ja paljon. Ehkä Amiga demot ovat kokonaan kadonneet eikä kukaan niitä enää kirjoita, mutta toisaalta en tunne yhtään ihmistä joka olisi käyttänyt Amigaa kymmeniin vuosiin. Muualla maailmassa ihmiset edelleen kovin kirjoittelevat käsin ja tarvitsevat siihen myös IDEa päivittäin.
 
Tässä mennään jo tosi vahvasti omaan kuplaan siinä tapauksessa. Suurin osa infraprojekteista ei käytä AI:ta ollenkaan tai välttämättä edes salli ollenkaan LLM:llä tehtyä koodia. Osa sallii hyvin vähän, mutta itsekään en hyväksy yhtään committia joka on tehty selvästi pelkästään AI:lla.
Painotin nimenomaan TDD-lähestymistapaa iteraatiolooppina. Kun loopista tulee tuotos ulos niin sitä kannattaa ihmisen alkaa katsomaan että kelpaisko. Tällä hetkellä AI on junnu ja sitä tutut käsittelevät junnuna, saa tehdä taskin loopissa, puskea katselmointiin ja sitten katsotaan seniorin toimesta. Todella moni on tässä loopissa päätynyt alkaen viime joulukuusta tilanteeseen missä ihmisen tekemiä koodirivejä tulee nolla ulos kun agenttiloopit toimivat niin hyvin.

--

Jos puhuisin ihan aallonharjasta mikä tuntuu hurjalta niin tiedän firmoja missä luotetaan testeihin ja ai:hin niin paljon että kun testit menevät läpi ja AI on katselmoinut niin suoraan sisään. Ihmiset vain pistotarkastavat jälkikäteen osan koodista että näyttää hyvältä. Toki tässä keississä on enemmän ja vähemmän kriittisiä taskeja, osa sellaisia että ei ilman ihmisen hyväksyntää sisään, taas joku napin siirto ui:ssa, ihan ok ilman ihmistä.

--

Mutta edelleen. Se paraskin AI on edelleen riittämätön. Parin vuoden päästä,... :)
 

Statistiikka

Viestiketjuista
306 756
Viestejä
5 193 723
Jäsenet
82 940
Uusin jäsen
JuuliM

Hinta.fi

Back
Ylös Bottom