我想创建一个相当简单的数学模型来描述系统中的使用模式和性能权衡。
系统行为如下:
客户端定期向主机网络发出多播数据包任何接收到数据包的主机都直接以单播应答响应发起主机缓存某个给定时间段的响应,然后丢弃它们如果下次需要请求时缓存已满,则从缓存而不是网络中提取数据数据包的大小是固定的,并且总是包含相同的信息 主机是对称的 - 任何主机都可以发出请求并响应请求 我想生成一些简单的数学模型(和图表)来描述在对上述系统进行一些更改的情况下可用的权衡:
当您改变主机缓存响应的时间时会发生什么?这可以节省多少数据?您避免了多少次网络调用? (显然取决于事件)假设响应也是多播的,并且任何听到另一个客户端请求的主机都可以缓存它听到的所有响应 - 从而避免自己潜在地发出网络请求 - 这将如何影响系统的整体状态? 现在,这个变得更复杂了——每个请求-响应周期都会改变 的状态。一个 网络中的其他主机,因此事件越多,缓存失效的速度越快。我如何模拟主机数量、事件率、缓存的“脏度”(假设主机监听其他人的响应)之间的权衡以及这如何随着缓存有效期的变化而变化?不知道从哪里开始。 我真的不知道我需要什么样的数学模型,或者我如何构建它。显然,只改变两个参数更容易,但特别是对于最后一个参数,我可能有四个变量要改变,我想探索。
帮助和建议表示赞赏。
研究代币化的 Petri 网。这些似乎是一个合适的工具,因为它们:
提供模型的图形表示提供大量数学分析有大量前期工作和基础分析是(相对)简单的数学模型似乎与您的问题直接相关,因为它们处理仅在指定条件下传递 token 的约束依赖网络 我通过搜索“token Petri net”找到了一些引用资料(质量未评估)