AI Alignment

人間のフィードバックによる強化学習(RLHF)
人間のフィードバックによる強化学習(RLHF)

人間のフィードバックによる強化学習(RLHF)

人間のフィードバックによる強化学習(RLHF)は、強化学習アルゴリズムのトレーニング過程に人間の入力を取り入れる機械学習手法です。従来の強化学習があらかじめ定義された報酬信号のみに依存していたのに対し、RLHFは人間の判断を活用してAIモデルの振る舞いを形成・洗練します。このアプローチにより、AIは人間の価値観や好みに...

1 分で読める
AI Reinforcement Learning +4