大規模言語モデル(LLM)は、同じ内容のプロンプトでも「書き方」や「情報の並べ方」によって答えが変わることがあります。
Google Researchの研究者らは、プロンプトをそのまま2回並べるだけの単純な手法により、LLMが多くの問題で正答しやすくなると報告しました。
https://gigazine.net/news/20260125-prompt-repetition-improves-non-reasoning-llms/
一回目だと運悪く読み飛ばした命令も、二回聞くと何とかなるっていうアレかお。
そちらでプロンプトの読み飛ばしを防ぎやすくなるのは事実だな。
ただ最初から破滅的回答をした場合の解決策にはならないので、人間側がAIの出力を常に疑ってかからないといけない問題は解決できない。
ちなみに破滅的回答を一度した場合、AIは一貫性維持のために、質問者が破滅するまで「論理的に正しい」と強弁し続けるので注意したいな。
やる夫より:
僕はローカル生成AIに自分の判断基準を教え込ませて、特定の仕事に対して自分と同じ判断を下せないかテスト中だお
プライバシーを守りつつ尖ったAIになることを期待しているお
document.addEventListener(‘DOMContentLoaded’, function() { var widgets = document.querySelectorAll(‘.ad-widget-unit’); var fallbacks = document.querySelectorAll(‘.ad-fallback-unit’); setTimeout(function() { widgets.forEach((widget, index) => { var fallback = fallbacks[index]; var isFiltered = ( widget.offsetHeight === 0 || widget.offsetParent === null || window.getComputedStyle(widget).getPropertyValue(‘display’) === ‘none’ ); if (isFiltered) { fallback.style.display = ‘block’; } }); }, 150); });
document.getElementById(‘kznottframe’).onload = function() {
try {
const contentHeight = this.contentWindow.document.body.scrollHeight;
this.height = contentHeight;
} catch (e) {
console.error(“error”);
}
};
続きを読む
Source: 稼げるまとめ速報