Skip to content

gnkm/oogiri

Repository files navigation

大喜利回答ジェネレーター

大喜利のお題に対して回答を返す。

使い方

1. MLflow の起動

docker compose up -d mlflow

MLflow UI は http://localhost:5000 でアクセスできます。

2. 大喜利の回答を生成

docker compose run --rm app answer "こんな職場はいやだ。どんな職場?"

LLM を指定する場合:

docker compose run --rm app answer "こんな職場はいやだ。どんな職場?" --llm openrouter/openai/gpt-4o

3. プロンプトの最適化

# BootstrapFewShot で最適化(高速)
docker compose run --rm app optimize --optimizer bootstrap --output output/bootstrap.json

# MIPROv2 で最適化(高精度)
docker compose run --rm app optimize --optimizer mipro --output output/mipro.json

LLM を指定する場合:

docker compose run --rm app optimize --optimizer bootstrap --output output/bootstrap.json --llm openrouter/openai/gpt-4o

最適化の進捗は MLflow UI の Traces タブで確認できます。

4. 最適化されたプロンプトで回答を生成

docker compose run --rm app answer "こんな職場はいやだ。どんな職場?" --optimized output/bootstrap.json

5. 出力ファイルの取得

最適化結果は output/ ディレクトリに保存されます。

About

No description, website, or topics provided.

Resources

License

Contributing

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published