Ite testasin alkuvuodesta Vibe-koodausta ja tässä luultasti sama homma kun siinäkin eli projektin edetessä tekoälylle puskettava kontekstin koko kasvaa mikä vaikuttaa vastaamisen aloittamiseen menevään aikaan aika radikaalisti. Tekoälypromtin heikkous kun siinä, että sille on työnnettävä joka kutsuun koko konteksti minkä haluat sen sillä kysymyskerralla "muistavan".Onkos kenelläkään Copilotista kokemusta verraten muihin, esim Chatgpt tai joku muu?
Rämppäsin tuota eilen jonkunverran excel röpellysten aikana ja tuntui että valmiin funktion tekeminen otti tuolla varsin kovalla. Usein helpommalla pääsi kun ajattelin asian itse kokonaan uusiksi. Aikaa kuitenkin tuhraantui paljon ja koko copilotti tuntui hidastuvan kokoajan mitä enemmän siltä kyseli.
Kyseessä oli arduinolle toteutettu modbus-rtu - ethernet gw. Ajelin aluksi paikallisesti pyöritetyllä deepseekillä jonka jälkeen läks muutama kymppi caluden suuntaan. Cline, vscode ja ollama toimi hyvin. Hienosti se raapas koodia kasaan ChatGPT:n avulla laaditun speksin perusteella, mutta eihän siinä tietenkään mikään toiminut. Pari tuntia jaksoin bugeja debugata kunnes totesin että näitä on ihan liikaa ja luovutin.