AI-koodausavustimet, keskustelua AI-avustetusta koodaamisesta/skriptaamisesta/dokumentoinnista/...

Mitä mallia käytät, niissä on valtavia eroja. anthropic(Claude code cli)paras malli max effort moodissa on upea jos ei törmää viime ajan bugeihin. Openain paras on hyvä. Muut mukaanlukien google on jäljessä. Lokaaleille voi painaa suoraan deleteä jos ajetaan kuluttajarautoihin mahtuvia versioita. Sama malli ei toimi samalla tavalla eri työkaluissa, esim. anthropicin mallit ovat paljon parempia heidän omassa claude code cli:ssa kuin cursor ai:hin integroituna.

Avain onneen on agenttiloopit ja systeemi missä AI voi iteroida itsekseen esim. testejä vastaan sen sijaan että ihminen olisi koko ajan loopissa. Agentin ei tarvi one shotata kun voi testata, korjata virheet, testata jne. Vaatii, että agentin ympärille rakennuttaa/rakentaa asioita, ei voi vain "make me an X" ja odottaa että tulis hyvä.
Olen ottanut periaatteeksi, että tekoäly on alihankkija. Alihankkija esittää todisteet että toimitettu tuote vastaa vaatimuksia - eli testit, validoinnit, benchmarkit toimituksen mukana. En todellakaan ala käymään läpi tuhansia rivejä koodia. Seuraan kyllä millaista koodia AI tekee ja ohjaan tarvittaessa. Testikoodeja kannattaa tietysti vilkaista että ovat järkeviä ja tarvittaessa täydentää.

Aina kun agentti tekee virheen niin syytä päivitellä agentin muisti/taidot/ohjeet niin että samanlaiset virheet (yritetään) välttää tulevaisuudessa. Ilman näitä kolmea agentit tekee mitä sattuu, uudestaan ja uudestaan. MCP-serverit viimeinen silaus auttamaan.
Yksi, mitä pidän myös tärkeänä, on, että AI etenee mahdollisimman pienissä stepeissä. Se pitää kontekstin pienenä ja vähentää kohinaa. Kaikki ylimääräiset kilkkeet, ohjeet ym. vaikka malli on iso niin se lisää silti pienen määrän kohinaa. Sitä kannattaa välttää jos pystyy.

Mulla ehkä auttaa että teen kaiken C#:lla, GPU-koodia myöten, ja kaikki ovat uusinta standardia. C++ voi olla kiharaisempi.

Ja tietysti: tekoälyn ymmärrys toimii parhaiten englanniksi.
 
Millä välineillä ja mitä malleja te ihmiset oikein ajelette, ja minkälaisissa asiayhteyksissä, jos tuntuu siltä että työt loppuu kesken ja ns. isoi juttui tulos jne?

Oma kokemus vieläkin näistä AI-malleista on että paskaa tulee niin helposti, vaikka miten promptais tai käyttäis jotain yleisiä suunnittelupatterneja jne. Onko se vaan siitä että omat tekemiset ei oo sitä perus CRUDia selainkäyttöliittymällä? Mallit helpottaa duunia joiltain ja tehostaa toisilta osin, mutta mun on vieläkin näin yli vuoden näitä kälejä käyttäneenä erittäin vaikea nähdä paskan tuottamisen ja tunkkaamisen loppumisen millään tavalla, varsinkin kun nämä vieläkin tykkäävät tuottaa vaan lisää ryönää sen sijaan että osaisivat tehdä ilman ohjeistusta järkeviä muutoksia jotka ei vaadi satoja lisärivejä.
Itse ajan nykyään VSCode + OpenCode-extension päällä näitä. Malleina pyörii tällä hetkellä Qwen3.5-27B ja Qwen3-Coder-Next, sekä pienempänä mallina Qwen2.5-Coder (koska sen saa pyörimään läppärin NPU:lla ja GPU:lla saa pyöriä tuo Coder-Next). Nämä kaikki pyörii lokaalisti, tosin mulla on mesh-vpn käytössä niin että läppärillä saa hyödynnettyä työaseman tehoja, mutta tarvittaessa pyörii täysin offline myös.

Hyödyt tästä lokaalista hostaamisesta on:
-Tiedot ja koodit ei karkaa OpenAI:lle, Anthropicille, tai kellekään muullekaan. Yritystilauksiin saa toki määriteltyä etteivät käyttäisi niitä tai edes säilöisi niitä, mutta tämän valvominen on käytännössä mahdotonta.
-Toimii ilman nettiyhteyttä, eli myös junassa, lentokoneessa, keskellä metsää.
-Ei yllättäviä mallin heikkenemisiä tai käyttökatkoja (case in point: Clauden viimeaikainen lobotomia ja tokenien älytön kulutuksen kasvu)
-Juoksevat kulut käytännössä 0e/kk (oikeasti jonkin verran kasvanut sähkönkulutus)

Lisäksi pääsee kehittämään sitä prosessia, jolla koodia luodaan. Ymmärrän että joku muu ajattelisi että sitä joutuu tekemään, mutta itse näen hedelmällisempänä tämän lähtökohdan, että mallin ei tarvitse kyetä kaikkeen, vaan skillit, työkalut, pluginit/hookit, ym. pitää huolta siitä että perusprosessit on kunnossa, eikä malli improa lennosta sitä ajellaanko testejä tällä kertaa vai ei, tai jotain muuta vastaavaa. Kaiken tämän lisäksi, jos sitten haluaakin käyttää sitä Claudea tms. näiden itse määriteltyjen työkalujen kanssa, onnistuu sekin.

Ja kun nuo prosessit on kunnossa, voi sitä mallia vaihtaa kun uusia parempia tulee saataville. Vähän samaan tapaan kuin firma voi vaihtaa sitä koodaria parempaan (not).
 
Viikonloppuna ei tehdä töitä, mutta piti päästä koodaamaan, niin teetätin tekoälyllä proton. 2D Euroopan kartta koostettu yhdistäen kartta- ja satelliittidataa. En kirjoittanut vielä riviäkään koodia.
1775236313083.png
 
Itse ajan nykyään VSCode + OpenCode-extension päällä näitä. Malleina pyörii tällä hetkellä Qwen3.5-27B ja Qwen3-Coder-Next, sekä pienempänä mallina Qwen2.5-Coder (koska sen saa pyörimään läppärin NPU:lla ja GPU:lla saa pyöriä tuo Coder-Next). Nämä kaikki pyörii lokaalisti, tosin mulla on mesh-vpn käytössä niin että läppärillä saa hyödynnettyä työaseman tehoja, mutta tarvittaessa pyörii täysin offline myös.

Hyödyt tästä lokaalista hostaamisesta on:
-Tiedot ja koodit ei karkaa OpenAI:lle, Anthropicille, tai kellekään muullekaan. Yritystilauksiin saa toki määriteltyä etteivät käyttäisi niitä tai edes säilöisi niitä, mutta tämän valvominen on käytännössä mahdotonta.
-Toimii ilman nettiyhteyttä, eli myös junassa, lentokoneessa, keskellä metsää.
-Ei yllättäviä mallin heikkenemisiä tai käyttökatkoja (case in point: Clauden viimeaikainen lobotomia ja tokenien älytön kulutuksen kasvu)
-Juoksevat kulut käytännössä 0e/kk (oikeasti jonkin verran kasvanut sähkönkulutus)

Lisäksi pääsee kehittämään sitä prosessia, jolla koodia luodaan. Ymmärrän että joku muu ajattelisi että sitä joutuu tekemään, mutta itse näen hedelmällisempänä tämän lähtökohdan, että mallin ei tarvitse kyetä kaikkeen, vaan skillit, työkalut, pluginit/hookit, ym. pitää huolta siitä että perusprosessit on kunnossa, eikä malli improa lennosta sitä ajellaanko testejä tällä kertaa vai ei, tai jotain muuta vastaavaa. Kaiken tämän lisäksi, jos sitten haluaakin käyttää sitä Claudea tms. näiden itse määriteltyjen työkalujen kanssa, onnistuu sekin.

Ja kun nuo prosessit on kunnossa, voi sitä mallia vaihtaa kun uusia parempia tulee saataville. Vähän samaan tapaan kuin firma voi vaihtaa sitä koodaria parempaan (not).
Mitä vanhoja softia herättänyt eloon AI:n avulla, en kauheasti enää jaksa huolehtia että koodi karkaisi jonnekin. Nykyään on niin helppo kehittää softaa että kilpailijatkin saa samanlaisia ominaisuuksia aikaan, mitä itsellä on. Yksi testi oli antaa AI:lle vain erään sovelluksen tallennustiedosto ja muutamat ruutukuvat ja AI kehitti vastaavan sovelluksen mitä alkuperäinen. Toki vaati ohjeistusta paljon, mutta hyvin analysoi tiedostorakenteen ja jopa päätteli mitä binäärit sisälsi.
 
Mitä vanhoja softia herättänyt eloon AI:n avulla, en kauheasti enää jaksa huolehtia että koodi karkaisi jonnekin. Nykyään on niin helppo kehittää softaa että kilpailijatkin saa samanlaisia ominaisuuksia aikaan, mitä itsellä on. Yksi testi oli antaa AI:lle vain erään sovelluksen tallennustiedosto ja muutamat ruutukuvat ja AI kehitti vastaavan sovelluksen mitä alkuperäinen. Toki vaati ohjeistusta paljon, mutta hyvin analysoi tiedostorakenteen ja jopa päätteli mitä binäärit sisälsi.
Samansuuntaiset ajatukset itsellä. Hyvin harva koodi webbisivun, applikaation, algoritmin tms. taustalla tuskin on enää arvokasta yksinään. Ei ehkä ole ollut pitkään aikaan kun ne vie jotka tuotteistaa parhaiten. Jälkikäteen kun jokin on lyönyt itsensä läpi niin vaikea isonkaan pelaajan rajattomilla resursseilla tulla mukaan kuten google oppi kun yritti tehdä sosiaalista mediaa tai microsoft puhelimia. Samaa juttua myös se miten mysql:lla tehtiin isot rahat vaikka koodi open sourcea.

Koodi on vähän kuin ideat, kaikilla niitä on ja arvo nolla jos ei tuotteistuskoneisto jauha kovempaa kuin muilla. Ylipäänsä jos elää kuten minä että ihmisentekemiä koodirivejä liki nolla niin käytännössä kuka tahansa edes vähän näkemystä omaava voi tehdä samat vaikka "minun" koodit pysyisivät kuinka salassa.
 
Viimeksi muokattu:
Mitä vanhoja softia herättänyt eloon AI:n avulla, en kauheasti enää jaksa huolehtia että koodi karkaisi jonnekin. Nykyään on niin helppo kehittää softaa että kilpailijatkin saa samanlaisia ominaisuuksia aikaan, mitä itsellä on. Yksi testi oli antaa AI:lle vain erään sovelluksen tallennustiedosto ja muutamat ruutukuvat ja AI kehitti vastaavan sovelluksen mitä alkuperäinen. Toki vaati ohjeistusta paljon, mutta hyvin analysoi tiedostorakenteen ja jopa päätteli mitä binäärit sisälsi.
Oma vastaukseni oli kontekstissa, jossa puhutaan töiden tekemisestä. Hyvin suuri osa firmoista ei salli sellaisten koodausavustimien käyttöä, mistä ei ole riittäviä takeita että koodi/data/ideat ei vuoda muille.

En itsekään olisi kovin huolissani jonkin harrasteprojektin osalta asiasta. Mutta kyllä firmat ihan aiheellisesti on huolissaan omista yrityssalaisuuksistaan ja omasta/asiakkaiden datasta. Vaikka frontin saisi helposti plagioitua AI-työkaluilla, on se silti ihan eri asia kuin että ne oikeasti skaalautuvat, turvalliset ratkaisut saisi nappia painamalla kopioitua.
 
Oma vastaukseni oli kontekstissa, jossa puhutaan töiden tekemisestä. Hyvin suuri osa firmoista ei salli sellaisten koodausavustimien käyttöä, mistä ei ole riittäviä takeita että koodi/data/ideat ei vuoda muille.

En itsekään olisi kovin huolissani jonkin harrasteprojektin osalta asiasta. Mutta kyllä firmat ihan aiheellisesti on huolissaan omista yrityssalaisuuksistaan ja omasta/asiakkaiden datasta. Vaikka frontin saisi helposti plagioitua AI-työkaluilla, on se silti ihan eri asia kuin että ne oikeasti skaalautuvat, turvalliset ratkaisut saisi nappia painamalla kopioitua.
Koodi itsessään ei ole arvokasta, mutta koodi paljastaa arkkitehtuurin ja ratkaisukeinot.

Esimerkiksi me kehitetään GPU:lle algoritmeja. AI kirjoittaa algoritmin tunnissa, optimointiin menee päivä tai kaksi. Käytännössä ei maksa mitään. Mutta jos kilpailija tietäisi mitä algoritmeja me käytetään, miten niitä käytetään, miksi se on valittu tähän ratkaisuun jne, niin se voisi olla arvokasta tietoa.
 
Koodi itsessään ei ole arvokasta, mutta koodi paljastaa arkkitehtuurin ja ratkaisukeinot.

Esimerkiksi me kehitetään GPU:lle algoritmeja. AI kirjoittaa algoritmin tunnissa, optimointiin menee päivä tai kaksi. Käytännössä ei maksa mitään. Mutta jos kilpailija tietäisi mitä algoritmeja me käytetään, miten niitä käytetään, miksi se on valittu tähän ratkaisuun jne, niin se voisi olla arvokasta tietoa.
Jos tieto on oikeasti arvokasta niin normaalitilanteessa vaikea estää kilpailijoita purkamasta applikaatiota tai noin ylipäänsä estää käyttämästä fiksua resurssia joka tietää mitkä algoritmit ovat parhaita valituilla mittareilla. AI algoritmeja/arkkitehtuureja voi POC tasolle kodastella automaatiolla ja vertailla. Usein helpoin tie on palkata se kilpailijan huipputyyppi, tän takiahan esim. AI frontier labroissa tieto kulkee firmasta toiseen kun rahalla houkutellaan firmasta toiseen porukkaa.

En usko, että edes nvidian cuda+sen ympärille kodastellut kirjastot pidemmän päälle kestävät sitä etteikö kilpailiha AI:n avulla tekisi omalle raudalleen cuda yhteensopiviaa frameworkkia. Nvidian tapauksessa mistä tulee vaikea MOAT on että cuda noudattaa nvidian piirien rauta-arkkitehtuuria todella tiukasti, osa tavoista tehdä asiat on niin sidottuja rautaan(ei pelkkä gpu vaan myös nvlink, nvlink c2c ja verkkoarkkitehtuuri) ettei kopiolla saa suorituskykyä erilaisella raudalla niin cuda kopio vaan sitten on hidas teki niin tai näin. AMD ainakin huomannut tän eikä enää edes yritä kopioida CUDAa vaan tekevät omaa rajapintaansa.

Lähinnä tulee matkapuhelimet, pelikonsolit ja pilvi mieleen joista on vaikea saada ulos kryptaamatonta binaaria. Tosin konsoleissakin kun rauta ei ole niin kovin hyvin suojattu motivoitunut tekijä voi tehdä one off kaappauksen keskusmuistista jos binaari on erehdytty kokonaisuudessaan purkamaan käynnistyksen yhteydessä. Tietty voi hommata devauskoneita ja ajaa niissä kilpailijan binaaria debuggerin läpikin.

En usko siis, että kovin pitkäaikaista kilpailuetua saa arkkitehtuurin/algoritmin tietoja piilottelemalla, ehkä kuukausia julkaisun jälkeen motivoitunutta kilpailijaa vastaan. Missä on tahtoa, siellä on tie. AI reverse engineeraus tulee varmaan olemaan juttu joka lyhentää tän tyylisiä kilpailuetuja entisestään.

Yksi äärimmäinen esimerkki on puolijohdetalot. Eivät mainosta, mutta kilpailijoiden piirit puretaan sille tasolle että nähdään piirin rakenteet ja joissain tapauksessa transistoritkin. Nvidia tietää erittäin hyvin mitä amd:n gpu:t ovat syöneet ja päinvastoin.
 
Viimeksi muokattu:
Jos tieto on oikeasti arvokasta niin normaalitilanteessa vaikea estää kilpailijoita purkamasta applikaatiota tai noin ylipäänsä estää käyttämästä fiksua resurssia joka tietää mitkä algoritmit ovat parhaita valituilla mittareilla. AI algoritmeja/arkkitehtuureja voi POC tasolle kodastella automaatiolla ja vertailla. Usein helpoin tie on palkata se kilpailijan huipputyyppi, tän takiahan esim. AI frontier labroissa tieto kulkee firmasta toiseen kun rahalla houkutellaan firmasta toiseen porukkaa.

En usko, että edes nvidian cuda+sen ympärille kodastellut kirjastot pidemmän päälle kestävät sitä etteikö kilpailiha AI:n avulla tekisi omalle raudalleen cuda yhteensopiviaa frameworkkia. Nvidian tapauksessa mistä tulee vaikea MOAT on että cuda noudattaa nvidian piirien rauta-arkkitehtuuria todella tiukasti, osa tavoista tehdä asiat on niin sidottuja rautaan(ei pelkkä gpu vaan myös nvlink, nvlink c2c ja verkkoarkkitehtuuri) ettei kopiolla saa suorituskykyä erilaisella raudalla niin cuda kopio vaan sitten on hidas teki niin tai näin. AMD ainakin huomannut tän eikä enää edes yritä kopioida CUDAa vaan tekevät omaa rajapintaansa.

Lähinnä tulee matkapuhelimet, pelikonsolit ja pilvi mieleen joista on vaikea saada ulos kryptaamatonta binaaria. Tosin konsoleissakin kun rauta ei ole niin kovin hyvin suojattu motivoitunut tekijä voi tehdä one off kaappauksen keskusmuistista jos binaari on erehdytty kokonaisuudessaan purkamaan käynnistyksen yhteydessä. Tietty voi hommata devauskoneita ja ajaa niissä kilpailijan binaaria debuggerin läpikin.

En usko siis, että kovin pitkäaikaista kilpailuetua saa arkkitehtuurin/algoritmin tietoja piilottelemalla, ehkä kuukausia julkaisun jälkeen motivoitunutta kilpailijaa vastaan. Missä on tahtoa, siellä on tie. AI reverse engineeraus tulee varmaan olemaan juttu joka lyhentää tän tyylisiä kilpailuetuja entisestään.

Yksi äärimmäinen esimerkki on puolijohdetalot. Eivät mainosta, mutta kilpailijoiden piirit puretaan sille tasolle että nähdään piirin rakenteet ja joissain tapauksessa transistoritkin. Nvidia tietää erittäin hyvin mitä amd:n gpu:t ovat syöneet ja päinvastoin.
Se on tietysti järkevää, mutta vuoden päästä olet jälleen vuoden jäljessä. Ellei sitten NVidian työntekijä vuoda design dokkaria Anthropicille, ja Anthropicin työntekijä AMD:lle.
 
Se on tietysti järkevää, mutta vuoden päästä olet jälleen vuoden jäljessä. Ellei sitten NVidian työntekijä vuoda design dokkaria Anthropicille, ja Anthropicin työntekijä AMD:lle.
Yks keksii yhden idean, toinen toisen. Salaisuudet ei pysy kauaaa piilossa. Ne häviää jotka ei pysty toimittamaan.

edit. tldr versio mitä yritin kirjoittaa ennen kuin lähtee liikaa rönsyilemään. Salaisuus on yhtä hyvä(oikeasti huono) kilpailuetu kuin security by obscurity on tietoturvaa. Kestävä kilpailuetu ainakin mun kokemuksen pohjalta on jotain muuta kuin salaisuuksia.
 
Viimeksi muokattu:

Statistiikka

Viestiketjuista
304 537
Viestejä
5 164 427
Jäsenet
82 498
Uusin jäsen
Desuclocker

Hinta.fi

Back
Ylös Bottom