artificial-intelligence - 人工智能博弈论中的功利主义与平等主义分配

标签 artificial-intelligence agent game-theory

假设我有两个玩家:玩家 A 和玩家 B,他们对资源有偏好(让我们笼统地使用术语“资源”)。他们的偏好可能是:

   {p}     {q}     {p,q}     {}        
A  10      15      20        0  
B  5       5       10        1

这表示两个玩家可以拥有一种资源,可以两者都拥有,也可以没有。数字越大,玩家越想要它。

我相信“功利主义”观点是最大化总体分配,因此这将是以下两种分配:

A: {p,q} 和 乙:{}

因为即使 B 不太高兴,它也会增加到 21 [幸福 1 :-( ]。

我的问题是平等主义(参见维基:1)分配是什么(如果有的话)?我不确定如何从上表中正确计算这一点?

谢谢:)。

最佳答案

在严格平等的解决方案中,每个人都会获得相同的值(value)。这在示例中是不可能的。

然而,平等主义的社会福利解决方案被定义为最大化任何代理人收到的最小值(value)的解决方案(参见我的multiagent systems textbook的第79页)

在这种情况下,两个解决方案之间存在联系:

                      A     B 
A: {p}   B: {q}      10     5
A: {q}   B: {p}      15     5

您可以根据自己的需要进一步完善平等社会福利解决方案理念。

关于artificial-intelligence - 人工智能博弈论中的功利主义与平等主义分配,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/5479622/

相关文章:

java - 蒙特卡洛树搜索 UCT 实现

artificial-intelligence - 向用户组推荐项目的最有效算法是什么?

artificial-intelligence - 你听说过的最酷的 AI 项目是什么?

http - 如何允许客户端使用某种类型的公钥指纹通过 HTTP 自行注册?

python - 如何解决 python axelrod Lookerup 策略中的关键错误

algorithm - 与迷宫相关的游戏

machine-learning - 监督学习,(ii) 无监督学习,(iii) 强化学习

ssh - 无法获得 Vagrant 工作的代理转发

java - 使用 Attach Api 时出错

algorithm - 给定游戏的获胜者