Yuta Tsuchiya, Yukino Baba CHI 2026

[採択論文/Accepted paper]

More Isn't Always Better: Balancing Decision Accuracy and Conformity Pressures in Multi-AI Advice (CHI 2026) https://dl.acm.org/doi/10.1145/3772318.3791648 [Introduction] 近年、複数のAIに意見を聞けるツールが増えているが、助言の数を増やすことが 常に正しい判断につながるかは解明されていない。同じ意見が重なると「周りに合わせる心理(同調圧力)」が働き、人間が誤った情報を信じ込んでしまう可能性がある。 そのため、人間がAIを賢く使いこなせるためのシステム設計が求められている。 本研究では、AIアドバイザーの「数」「意見の一致度」「見た目の人間らしさ」が 人間に与える影響を分析した。 その結果、複数のAIが同じ意見を述べることで「人工的な多数派」が形成され、 人間が思考停止して従ってしまうリスクを明らかにした。 これに対し、あえて少数意見を強調して再考を促す設計や、情報を適切な量に絞るなど、人間が主体的に決断を下せる指針を提案している。 [Abstract] 本研究は、複数のAIパネルからの助言が人間の意思決定精度と同調圧力に与える影響を 実験的に分析したものである。実験では、AIパネルのサイズ(1台、3台、5台)、 パネル内の意見分布(全会一致、少数意見の存在、大きな不一致)、およびエージェントの擬人化(名前や顔写真の有無)を操作し、348名の参加者の行動を評価した。 分析のアプローチとして、Judge-Advisor System(JAS)パラダイムを用い、初期判断とAI提示後の最終判断を比較することで、精度向上やAIへの依存度(Agreement/Switch Fraction)を定量化している。 解析により、以下の結果を導出した。  1. AIパネルのサイズ: 3台程度の小規模なパネルは、単一のAIよりも意思決定の精度を   向上させたが、5台といった大規模なパネルではそれ以上の恩恵は見られなかった。   パネルサイズの拡大は必ずしも精度の向上に直結しないことが示された。  2. パネル内の一致度: 高い合意(全会一致)は同調圧力を強め過度な依存を   助長するが、たった一つの反論(少数意見)が存在するだけで同調圧力が軽減され、   人間が自身の判断を再考するきっかけとなることが確認された。   一方で、意見が激しく対立する状況では情報の過多による混乱が生じ、適切な信頼が   損なわれる傾向も見られた。  3. 擬人化の影響: 名前や顔写真を用いた擬人化された提示は、特定のタスクにおいて   AIの知覚される有用性やエージェント性を高めたが、平均的には同調圧力を一律に   強めるほどの影響は確認されなかった。 マルチAI環境においては、ユーザーの認知負荷と意見の多様性のバランスを考慮して パネルサイズを調整すること、また反射的な同調を防ぐために少数意見を強調するような 提示手法の設計が重要である。     本研究に関するお問い合わせ:info[at]riise.u-tokyo.ac.jp ________________________________________________________________________

[Introduction] In recent years, tools that can ask for opinions from multiple AIs have been increasing, but it has not been clarified whether increasing the number of pieces of advice always leads to correct decisions. When the same opinions overlap, the "psychology of conforming to the surroundings (peer pressure)" acts, and there is a possibility that humans will end up believing incorrect information. Therefore, system design for humans to be able to use AI wisely is required. In this study, we analyzed the influence that the "number," "degree of consensus of opinions," and "human-likeness of appearance" of AI advisors have on humans. As a result, it was clarified that an "artificial majority" is formed by multiple AIs stating the same opinion, creating a risk that humans stop thinking and follow them. In response to this, we propose guidelines for humans to make decisions independently, such as designs that intentionally emphasize minority opinions to encourage reconsideration, or narrowing down information to an appropriate amount. [Abstract] This study experimentally analyzed the influence that advice from multiple AI panels has on human decision-making accuracy and peer pressure. In the experiment, we manipulated the AI panel size (1, 3, or 5 units), the distribution of opinions within the panel (unanimous, presence of minority opinions, or major disagreement), and the anthropomorphism of the agents (presence or absence of names and facial photos), and evaluated the behavior of 348 participants. As an analytical approach, we used the Judge-Advisor System (JAS) paradigm to quantify accuracy improvement and the degree of dependence on AI (Agreement/Switch Fraction) by comparing initial judgments with final judgments after AI presentation. Through analysis, we derived the following results: 1. AI panel size: A small-scale panel of about 3 units improved decision-making accuracy compared to a single AI, but no further benefit was seen with a large-scale panel such as 5 units. It was shown that increasing the panel size does not necessarily lead directly to improved accuracy. 2. Degree of consensus within the panel: While high agreement (unanimity) strengthens peer pressure and encourages excessive dependence, it was confirmed that the presence of even a single counterargument (minority opinion) reduces peer pressure and serves as a trigger for humans to reconsider their own judgments. On the other hand, in situations where opinions conflicted sharply, confusion due to information overload occurred, and a tendency for appropriate trust to be undermined was also observed. 3. Influence of anthropomorphism: Anthropomorphic presentation using names and facial photos increased the perceived usefulness and agency of the AI in specific tasks, but on average, an influence strong enough to uniformly strengthen peer pressure was not confirmed.   In multi-AI environments, it is important to adjust the panel size considering the balance between the user's cognitive load and the diversity of opinions, and to design presentation methods that emphasize minority opinions to prevent reflexive conformity.     Contact:info[at]riise.u-tokyo.ac.jp

  • [採択論文/Accepted paper]
  • [採択論文/Accepted paper]