大喜利のお題に対して回答を返す。
docker compose up -d mlflowMLflow UI は http://localhost:5000 でアクセスできます。
docker compose run --rm app answer "こんな職場はいやだ。どんな職場?"LLM を指定する場合:
docker compose run --rm app answer "こんな職場はいやだ。どんな職場?" --llm openrouter/openai/gpt-4o# BootstrapFewShot で最適化(高速)
docker compose run --rm app optimize --optimizer bootstrap --output output/bootstrap.json
# MIPROv2 で最適化(高精度)
docker compose run --rm app optimize --optimizer mipro --output output/mipro.jsonLLM を指定する場合:
docker compose run --rm app optimize --optimizer bootstrap --output output/bootstrap.json --llm openrouter/openai/gpt-4o最適化の進捗は MLflow UI の Traces タブで確認できます。
docker compose run --rm app answer "こんな職場はいやだ。どんな職場?" --optimized output/bootstrap.json最適化結果は output/ ディレクトリに保存されます。