バグ修正って、案外手戻りが多くて疲れてる。問題レポートをもらって、該当のコードを追い、テストコードを走らせて、修正案を考えて、レビュー待ち……って流れで、初期調査だけで2時間とか使ってることざらにある。特に大型プロジェクトだと、コードベースが広くて、問題がどこで起きてるか特定するのにめちゃ時間かかる。
この課題をなんとかしたくて、AI使ったツール色々試してたときに SWE Agent Mini を見つけた。リポジトリ見た時点では「また LLM のラッパーか」くらいの感覚だったけど、セットアップして実際に動かしてみると思ったより洗練されてた。
導入自体は簡単で、git clone https://github.com/SWE-agent/mini-swe-agent して pip install -r requirements.txt で環境整った。その後、OpenAI の API キーを設定して、バグレポートのテキストを食わせるだけ。すると、ツールが自動でリポジトリを探索して、関連ファイルを特定し、修正案をコード形式で返してくる。最初に試した時は「え、これだけ?」ってなった。
ここが本当に良い点は、修正案が単なる推測じゃなくて、実際のコード文脈を理解した上での提案になってるところ。今まで修正方針を決めるとき、何パターンか試した上で「どれが一番リスク低いか」を判断してたけど、このツールが出す案ってかなり無難で、実装レベルでも通りやすい形になってる。実案件で使ったケースは 10 回弱だけど、提案の 7 割くらいはそのままマージできるレベル。残りも大まかな方針は外れてないから、修正の方向性決めで迷う時間がガクッと減った。
弱点もある。ドキュメントはまだ充実してなくて、細かい設定オプションはコード読んで理解する必要がある。あと対応言語が Python, JavaScript, Go 中心で、Java のような複雑な型システムの言語だと精度が落ちる傾向がある。ウチは Python と Go 案件が多いからそこまで困ってないけど、言語によって使い勝手は変わると思う。
結論として、修正作業の初期フェーズで何度も同じ思考パターンを繰り返してる人には、かなり相性いいツールだと思う。完全自動化ではなく、「修正案をスピード感持って提示してくれるアシスタント」くらいの位置付けで使うのがちょうどいい。チーム規模が大きくて、バグ対応のターンアラウンド早めたいとこにはマジでお勧めできる。