LLVM AIツールポリシー:人間の介入
概要
LLVMプロジェクトが提案するAIツール利用ポリシーの要点解説。
貢献者は「人間が内容を理解し説明できる」ことが必須条件。
AI生成物の無検証提出や、メンテナへの負担転嫁を禁止。
透明性確保のためのラベリング指針と違反時の対応策。
著作権や他コミュニティの事例も参照しつつ運用方針を明示。
LLVM AIツール利用ポリシー
- LLVMはAIツール利用自体を禁止しないが、「人間が必ず内容を理解し、説明できること」を条件とするポリシー。
- 貢献者はAI生成コードやテキストを必ず自分で精査・確認し、他のメンバーにレビュー依頼する前に内容を把握する責任。
- 貢献者自身が著者として全責任を負うことが原則。
- 自信のない新規貢献者には、小さな貢献から始めて理解を深めることを推奨。
- メンテナの負担軽減と、プロジェクト価値向上を最重要視。
具体的な運用例
- AIツールで生成したコードやドキュメントは、必ず人間が内容を見直し、正確性を確認した上でPull Request(PR)等で提出。
- 大規模・複雑なPRや、メリットが薄い貢献は「extractive」とラベル付けし、再検討を促す運用。
- AIツール利用時の透明性確保として、PR説明文やコミットメッセージ等で「Assisted-by:」のような記載を推奨。
- 自動エージェントやbotによる無人投稿は禁止。人間が介在しない自動レビューコメントも不可。
- オプトイン型の人間介在ツールは許可。
extractive contribution(搾取的貢献)への対応
- メンテナがextractiveと判断した場合、定型文で修正要求し、ラベル付与後は追加対応を控える。
- 貢献者が改善しない場合、該当スペースのモデレーションチームにエスカレーションし、会話ロック等で対応。
- extractive度合いの判断基準は、プロジェクト維持に携わるメンテナの裁量。
著作権への配慮
- AIツール利用時も著作権責任は貢献者に帰属。ライセンス違反や第三者著作物の無断利用は禁止。
- 違反が判明した場合、他の違反貢献物と同様に削除対象。
参考事例・他コミュニティの動向
- Fedora、Rust、Python、QEMU等、他OSSコミュニティのAI/LLM利用ポリシーや議論を参考に策定。
- コミュニティの持続的成長と新規貢献者の育成を両立する運用方針。
ポリシーのまとめ
- AIツール利用の自由と人間による責任ある貢献の両立を目指すLLVMの方針。
- メンテナの時間と労力を守るため、「価値ある貢献」の原則を徹底。
- 透明性・説明責任・コミュニティ維持を重視した実践的ガイドライン。