
- Z powodu swojej budowy LLMy lepiej pamiętają to, co jest na początku, i to, co jest na końcu prompta, a środek jest… zapominany.
- Okienka kontekstowe nawet prostych agentów w 2025, wystarczą na setki stron, to z powodu swojej specyfiki każdy dodatkowy prompt to degradacja agenta.
- Póki coś radykalnie się nie zmieni, promptowanie odpowiednie pod danego LLMa będzie supermocą.
- Modele od OpenAI m.in. lubią nadawanie ról, oraz dokładny format wyjścia. Natomiast modele od Anthropic lubi m.in. dużo kontekstu oraz jasnego formatowania np. punktatów w zapytaniach.
- Jak zawsze wszystko może się zmienić wszędzie i zawsze, więc tylko testowanie i zasada ograniczonego zaufania.
Dodaj komentarz