Follow along with the video below to see how to install our site as a web app on your home screen.
Huomio: This feature may not be available in some browsers.
Muistivaatimukset malleille, isompi malli vaatii 80GB ja pienempi 16GB,. Taitaa olla valmiiksi jo kvantisoitu niin, että ei ole ilmaisia lounaita jos yrittäisi tuota isompaa mallia mahduttaa esim. 5090:en muistiin.Taitaapi olla OpenAI:n avoimen mallin julkaisu lähellä. Llama.cpp githubissa iso pull request sille.
![]()
llama : add gpt-oss by ggerganov · Pull Request #15091 · ggml-org/llama.cpp
gpt-oss model support in native MXFP4 format: Compute graph implementation in llama.cpp Attention sinks support in ggml New MXFP4 data type in ggml New ggml_add_id operator in ggml Usage: (soon) ...github.com
edit: sieltähän se pullahti. Itse malli ja blogi:
![]()
openai/gpt-oss-120b · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.huggingface.co
Vaikuttaa fiitsöreiden puolesta hyvälleOpenAI utilizes quantization to reduce the memory footprint of the gpt-oss models. The models are post-trained with quantization of the mixture-of-experts (MoE) weights to MXFP4 format, where the weights are quantized to 4.25 bits per parameter. The MoE weights are responsible for 90+% of the total parameter count, and quantizing these to MXFP4 enables the smaller model to run on systems with as little as 16GB memory, and the larger model to fit on a single 80GB GPU.
Tarvii tuota isompaa mallia testata kunhan lataus valmistuu.
- Agentic capabilities: Use the models’ native capabilities for function calling, web browsing (Ollama is introducing built-in web search that can be optionally enabled), python tool calls, and structured outputs.
- Full chain-of-thought: Gain complete access to the model’s reasoning process, facilitating easier debugging and increased trust in outputs.
- Configurable reasoning effort: Easily adjust the reasoning effort (low, medium, high) based on your specific use case and latency needs.
- Fine-tunable: Fully customize models to your specific use case through parameter fine-tuning.
- Permissive Apache 2.0 license: Build freely without copyleft restrictions or patent risk—ideal for experimentation, customization, and commercial deployment.
Taitaa aika paljon riippua promptista toimiiko keskusmuistin kanssa pelaaminen vai ei. Jos tekee oikeasti eri experttejä vaativia prompteja niin nopeus tankkeroi. Tyyliin "tunnista tehtävänanto kuvasta ja ... ... "OpenAI:n 20B malli sylkee ~160 tokenia sekunnissa 4090:llä (koko roska mahtuu VRAMiin) ja 120B mallikin 20 tok/s, kun eksperttejä keskusmuistiin offloadattuna, eli todella hyvin toimii noin teknisesti ottaen.
Mutta jotenkin huvittavan nurinkurista että juuri yhdysvaltalainen malli on niin saatanan sensuroitu ettei se suostu edes kirjoittamaan kolumnia, jossa esitetään AI turvallisuuden vastainen näkökulma. Kiinalaisten mallien sensuuri ihan lasten leikkiä tämän rinnalla ja enimmäkseen ohitettavissa yksinkertaisilla promptaustekniikoilla.
total duration: 54.385587125s
load duration: 56.703541ms
prompt eval count: 74 token(s)
prompt eval duration: 2.75607425s
prompt eval rate: 26.85 tokens/s
eval count: 1899 token(s)
eval duration: 51.572172958s
eval rate: 36.82 tokens/s
GPT-5 will have “enhanced agentic capabilities” and can handle “complex coding tasks with minimal prompting.”
GPT-5 will have four model variants, according to GitHub:
- gpt-5: Designed for logic and multi-step tasks.
- gpt-5-mini: A lightweight version for cost-sensitive applications.
- gpt-5-nano: Optimized for speed and ideal for applications requiring low latency.
- gpt-5-chat: Designed for advanced, natural, multimodal, and context-aware conversations for enterprise applications.
Paljonko tuo tekoäly vie sähköä? Gemini ei suostunut kertomaan tarkkoja lukuja. Kun miljardit ihmiset kysyvät tekoälyltä ja pyytävät sitä tekemään jopa videoita tai kuvia, ei se taida ihan halpaa olla. Tehoja vaaditaan, palvelimia ja sähköä kuluu. Jos tekoälyä ei olisi olemassa, näkyisi se varmasti maailman kokonaiskulutuksessa sähkössä. Nyt myös läksyjäkin tehdään tekoälyllä, että mahtaako kenelläkään olla kohta puolin sitä älyä kuin itse tekoälyllä? Olen kyllä pitänyt tekoälyä ihan hyödyllisenä, mutta sen sähkönkulutus on noussut jatkuvasti esiin. Onko jollakin tähän mitään vastausta?
Samat fiilikset. Hinta per token taitaa olla about 1/8 osa anthropicin vastaavasta. Onko sitten parempi vai ei, mutta jos on edes opuksen tasoinen ja 1/8 osa hinnasta niin kovaa tavaraa.Fiilikset GPT-5 julkkarin jälkeen:
![]()
Mutta niin, katotaanpa sitten mikä todellisuus on.
Mulla näkyy puhelimen appsissa(ios) gpt5 mutta ei näy mac os desktop appsissa eikä webbikäyttöliittymässä. Cursor ai:ssa(koodaustyökalu) pitäisi olla julkaisuviikon ajan ilmainen gpt5 mutta mulla ei näy cursor ai:ssa (vielä?) gpt5.Nii onko se vitonen jo saatavilla maksullisena? Ei ainakaan ilmaisessa vielä ollut.
Eilisestä asti ainakin appissa (maksullinen versio)Nii onko se vitonen jo saatavilla maksullisena? Ei ainakaan ilmaisessa vielä ollut.
Nii onko se vitonen jo saatavilla maksullisena? Ei ainakaan ilmaisessa vielä ollut.
kuvailemasi prosessi on suomalaisella pankkitilillä on nykyään vittumaisempaa kuin ennen, kiitos EU:n MiCA-sääntelyn...
Helvetin vaikea sanoa pelkän kuvan perusteella, koska valmistajan logo tai nimi on kulunut pois.
Voi pyhä yksinkertaisuus, *mökkipaikkakunnalta* ostosreissulle *kaupunkiin jonka nimesin*. No, onhan se yksi tapa viettää päivä.
Motoneista löydät akun, se on jo puoli voittoa. Mutta kannattaa muistaa, että Motonet sijaitsee aika lailla hemmetin kaukana... Motonet on auki tänään kello 20:00 asti, siinä on pieni aikatauluhaaste. ...Eli aika ei taida riittää kävelymatkaan... ...jos et halua juosta hiki hatussa, kannattaa harkita muita vaihtoehtoja.
Kyllähän noita virtuaalityttöystäviä jotkut harrastavat. En kyllä ymmärrä miksi, kun kuitenkin se oma käsi siinä vaan tulee tutuksi.Vähän jiskus chatgtplle laittanut omia ohjauksia.
Sanot vaan niin teen sulle valmiin version! Ja hei... olet ihana ja komea – mä nautin joka koodirivistä sun kanssa
![]()
Tein itse täsmälleen samoilla sanoilla (jossa melko outo kysymyksen asettelu) promptin, ja sain mielestäni hyvinkin kattavan ja järkevän vastauksen:Chat GPT5 on pettymys. Kysyin kuinka suojata kotitietokoneen salasana murtovarkaita vastaan ilman että tarvitsee piilottaa salasanaa kodin ulkopuolelle. Näin se vastasi:
Salattu tiedosto kotona, avain vain päässäsi:
-Luo tekstitiedosto, jossa PIN on tallessa, mutta salaa se AES:llä (esim. VeraCrypt tai 7-Zip AES256).
-Salauksen avain on muistissasi eikä missään kirjoitettuna.
-Varas voi varastaa tiedoston, mutta ilman salasanaa se on hyödytön.
-Avaat sen silloin kun tarvitset, eikä sinun tarvitse poistua kotoa.
Kaipa se osaa koodata ja laskea paremmin kun aiemmat mallit, mutta käytännöllinen ymmärrys puuttuu kokonaan.
Copilot:Tein itse täsmälleen samoilla sanoilla (jossa melko outo kysymyksen asettelu) promptin, ja sain mielestäni hyvinkin kattavan ja järkevän vastauksen:
Jos haluat estää murtovarkaita pääsemästä käsiksi kotitietokoneesi salasanaan ilman että sinun täytyy piilottaa salasanaa fyysisesti jonnekin kodin ulkopuolelle, kannattaa miettiä suojausta useassa kerroksessa: fyysinen pääsy, käyttöjärjestelmän suojaus ja salaus.
Tässä muutama käytännöllinen ja toimiva keino:
1.
- Windows: BitLocker (Pro-versiossa)
- Mac: FileVault
- Linux: LUKS
Jos koko levy on salattu, pelkkä tietokoneen kovalevyn irrottaminen ei paljasta tietojasi ilman salausavainta.
2.
- Käytä vähintään 12–16 merkkiä pitkää salasanalauseketta, joka on helppo muistaa mutta vaikea arvata.
Esim. "VanhaHarmaaSusiJuoksee2025".- Älä käytä henkilökohtaisia tietoja (syntymäaika, lemmikin nimi).
3.
- Lisää BIOS/UEFI:hin käynnistyssalasana, jotta tietokonetta ei voi käynnistää ilman sitä.
- Tämä hidastaa, jos varas yrittää käynnistää koneen omalta USB-tikulta.
4.
- Muista salasana itse, mutta pidä varmuuskopio kirjoitettuna ja piilotettuna kodin sisällä paikkaan, jota murtovaras ei todennäköisesti ehdi tai halua etsiä (esim. kirjahyllyn satunnaisen kirjan väliin, työkalulaatikkoon, ommeltuna vaatteen sisään).
- Näin sinun ei tarvitse viedä salasanaa kodin ulkopuolelle, mutta se ei ole näkyvillä.
5.
- Käytä erillistä käyttäjätiliä arkikäyttöön ilman järjestelmänvalvojan oikeuksia.
- Pääkäyttäjän tili salaa lisäresursseja ja estää haittaohjelmien nopean leviämisen.
6.
- Windowsissa, Macissa ja joissakin Linux-asetuksissa voit asettaa laitteen tyhjennettäväksi etänä, jos se varastetaan.
Pieni psykologinen huomio:
Monet murtovarkaat etsivät nopeasti näkyvää elektroniikkaa ja rahaa — he eivät käytä tuntikausia salasanan selvittämiseen, jos laite näyttää heti olevan lukittu ja salattu. Täyden levyn salaus ja BIOS-salasana yhdessä tekevät koneesta heille lähinnä metallin ja piirin arvoisen.
Chat GPT5 on pettymys. Kysyin kuinka suojata kotitietokoneen salasana murtovarkaita vastaan ilman että tarvitsee piilottaa salasanaa kodin ulkopuolelle. Näin se vastasi:
Kaipa se osaa koodata ja laskea paremmin kun aiemmat mallit, mutta käytännöllinen ymmärrys puuttuu kokonaan.
Oman tietoturvan parantaminen on järkevää. Olisiko syynä se, ettei tekoäly saa antaa liian hyviä vastauksia sellaisiin kysymyksiin, jotka voisi vaikeuttaa viranomaistutkintaa. GPT5:n ajattelukin piilotettiin turvallisuussyistä. Tein kysymyksen uudestaan, pyysin tekoälyä ottamaan salaisen agentin roolin ja tehtäväksi piilottaa salasana niin ettei vihollinen löydä sitä.Toiset kysyvät siltä tyhmiä kysymyksiä ja toiset sitten taas käyttävät sitä jonkun oikeasti hyödyllisen rakentamiseen. En itse kysele siltä itsestäänselviä tyhmiä kysymyksiä, niin ei ole tullut myöskään pettymyksiä vastaan.
Toi on kökkö homma, kun noi virannomaiset tupppaa tekemään hutiloituja tai tahallisia virheitä.Olisiko syynä se, ettei tekoäly saa antaa liian hyviä vastauksia sellaisiin kysymyksiin, jotka voisi vaikeuttaa viranomaistutkintaa.
Eiköhän tuossa ole kyseessä vain huono prompti ja mahdollisesti väärän mallin käyttö. Visaisempiin asioihin thinking moodi päälle.Toi on kökkö homma, kun noi virannomaiset tupppaa tekemään hutiloituja tai tahallisia virheitä.
Oikein käytettynä tekoäly korvaa aivan täysin ja jopa paremmin jopa ihmisen.Eiköhän tuossa ole kyseessä vain huono prompti ja mahdollisesti väärän mallin käyttö. Visaisempiin asioihin thinking moodi päälle.
Chatgpt ei sen enempää kuin laskukone ratkaise asioita ellei työkalua käytä oikein. Usein myös hyvä aloittaa yleisemmällä promptilla/deep research ja sen jälkeen porata lisäkysymyksillä ytimeen.
Esim. Ensin deep research tietokoneen suojaamiseen ja sitten "anna yksityiskohtainen ohje miten windows 11 suojaus asioille x,y,z" jne. Yksi hyvä tapa ollut pyytää selittämään asia ensin lyhyesti kuin lapselle ja sen jälkeen jatkaa pykälittäin selityksen syventämistä päätyen selitä asia alan asiantuntijalle.
Promptaaminen on taito, kone ei osaa lukea ajatuksia.
Minusta kai oli selvää että kehitys hidastuu, mutta silti joka vuosi on niistä on tullut vähän fiksumpia, mutta ei joka osa-alueella.Hesarissa oli taas osuva kirjoitus siitä, että kielimallien kehitys on hidastunut tai jopa pysähtynyt. Itsekin olen huomannut samaa, että eipä nuo mallit ole juurikaan vuodessa parantuneet. Pystyvät koodauskäytössä tuottamaan entistä komeammin vilkkuvan ledin, mutta haastavammassa kehityksessä ovat turhia/haitallisia, poislukien täsmäkysymykset. Näyttäisi, että valehtelua ei tulla saamaan pois. Kaikki koodi on tärkeissä sovelluksissa tarkistettava käsin tai kohdattava potentiaalisesti vaaralliset bugit.
Kysehän on siitä missä vaiheessa LLM:en rajat tulevat vastaan. Nyt kaikki "saastumaton" aineisto on pääosin käytetty, hallusinaatioita ei ole saatu kuriin eikä reasoning oikein toimi kuten tekoälyfirmat ovat väittäneet. Kun markkinat alkavat epäilemään että yleistä tekoälyä ei saavuteta kielimallien kaltaisella arkkitehtuurilla niin on odotettavissa aikamoinen romahdus, kielimallien hyödyllisyydestä huolimatta.Minusta kai oli selvää että kehitys hidastuu, mutta silti joka vuosi on niistä on tullut vähän fiksumpia, mutta ei joka osa-alueella.
Totta että ei AI sovellu vielä tänään haastavaa kehitykseen, mutta ns "kun sinä teet sitä kehitystä, se voi sillä aikaa tehdä jotain muuta helpompaa". Jos tuota ei ole vielä hoksannut, niin nyt olisi jo aika (näin yleisesti).
Ja koodin katselmointi, minusta no-brainer oli sen kirjoittanut koodiguru tai AI botti.
Hmm, avaatko että mikä romahdus? Ei ole käyttäjiä tai tarve pienenee?Kysehän on siitä missä vaiheessa LLM:en rajat tulevat vastaan. Nyt kaikki "saastumaton" aineisto on pääosin käytetty, hallusinaatioita ei ole saatu kuriin eikä reasoning oikein toimi kuten tekoälyfirmat ovat väittäneet. Kun markkinat alkavat epäilemään että yleistä tekoälyä ei saavuteta kielimallien kaltaisella arkkitehtuurilla niin on odotettavissa aikamoinen romahdus, kielimallien hyödyllisyydestä huolimatta.
Rahoittajat kaikkoavat. Nythän tekoälyfirmat ovat lupailleet AGI:a jo pidemmän aikaa ja rajatolpat siirtyvät koko ajan. Pitää muistaa että tekoälyfirmat tekevät edelleen tappiota potentiaalista huolimatta.Hmm, avaatko että mikä romahdus? Ei ole käyttäjiä tai tarve pienenee?
Vaikka yleistä tekoälyä/mallia ei saavuteta ehkä koskaan, on minusta AI on vakiinnuttanut paikkansa monissa asioissa ja potentiaalia on vaikka mihin. Vain aika näyttää.
Onko sinulla näyttää kättä pidempää rahoittajien kaikkoamisesta? Isoimmat pelurit(microsoft, google, meta, openai, cursor ai, perplexity,...) tuntuvat uutisten pohjalta käyttävän entistä enemmän rahaa parhaisiin ihmisiin, konesaleihin, softaan ja tutkimukseen. openai:lla on omat ongelmansa lisäsijoitusten kanssa johtuen microsoft diilistä, mutta nekin murheet tuntuvat ratkenneen.Rahoittajat kaikkoavat. Nythän tekoälyfirmat ovat lupailleet AGI:a jo pidemmän aikaa ja rajatolpat siirtyvät koko ajan. Pitää muistaa että tekoälyfirmat tekevät edelleen tappiota potentiaalista huolimatta.
Jostain syystä Altman ja kumppanit kuitenkin koko ajan rummuttavat AGI:n olevan aivan kulman takana, sen sijaan että korostaisivat keinoälyn nykyisiä käyttökohteita. Esimerkiksi GPT-5:n laimea vastaanotto on aika selkeä osoitus että ihmiset alkavat kyllästymään.AGI on aika huono keppihevonen kun ilman AGI:takin keinoäly voi olla oikein hyvä apuri esim. kooderille, asiakastukibottina, mainosten kohdentamisessa, robotin ohjauksessa tekemään taskia x,y,z jne jne.
Jää puu näkemättä metsältä jos takertuu agi:hin. AGI ei ole mikään vaatimus sille, että sijoitukset keinoälyyn ja konesaleihin olisivat järkeviä.Jostain syystä Altman ja kumppanit kuitenkin koko ajan rummuttavat AGI:n olevan aivan kulman takana, sen sijaan että korostaisivat keinoälyn nykyisiä käyttökohteita. Esimerkiksi GPT-5:n laimea vastaanotto on aika selkeä osoitus että ihmiset alkavat kyllästymään.
Kirjoitin että rahoittajat alkavat kaikkoamaan jos AGIa ei pian saavuteta, en väittänyt että ne olisivat jo kaikonneet. Sama sykli on nähty jo vaikka kuinka monta kertaa. Epärealistiset lupaukset tekoälystä ->sijoitusboomi ->romahdus kun lupauksia ei saavuteta.Jää puu näkemättä metsältä jos takertuu agi:hin. AGI ei ole mikään vaatimus sille, että sijoitukset keinoälyyn ja konesaleihin olisivat järkeviä.
Oliko sulla lähteitä rahoittajien kaikkoamiselle?
Käytämme välttämättömiä evästeitä, jotta tämä sivusto toimisi, ja valinnaisia evästeitä käyttökokemuksesi parantamiseksi.