经销商公平偏好的供应链合作广告策略研究

来源 :工业工程 | 被引量 : 0次 | 上传用户:caojinhe1118
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
为研究经销商公平偏好对供应链合作广告策略的影响,构建由一个制造商和两个经销商构成的二级供应链合作广告多代理模型。运用委托代理理论分析信息不对称下经销商公平中性和公平偏好2种情形的合作广告策略,并运用数值方法分析均衡解。研究发现,经销商公平偏好时,广告投资努力、批发价格、广告补贴和制造商收益皆高于经销商公平中性时的相应水平,且均随经销商公平偏好程度的增强而提高。随着经销商公平偏好程度的增强,制造商降低了经销商的总利润分成,提高了广告补贴;制造商对经销商的激励方式更倾向固定广告补贴而不是与供应链总利润相关的利
其他文献
近期数据安全被广泛关注,随着新四化的深度应用,个人数据、道路数据等不断被上载,不断为更好的体验做贡献,但同时也暴露了一些问题,数据安全愈发被重视,成为智能网联汽车的关键要素。为落实《网络安全法》相关要求,加快网联汽车标准研制工作,全国信息安全标准化技术委员会组织起草形成了《信息安全技术网联汽车采集数据的安全要求》,对智能网联汽车的数据安全做出要求。
为提升全渠道零售商的运营效率和顾客购物体验,研究全渠道零售商的库存决策。基于扩展报童模型,分别构建传统双渠道与BOPS策略下的全渠道库存决策模型,通过对比分析,研究BOPS策略对门店最优库存决策和零售商利润的影响。研究结果表明,顾客选择行为对全渠道和双渠道运营产生了不同的影响。1)双渠道下门店最优订货量随顾客对门店库存水平预期的增大而增大,全渠道下门店最优订货量呈现的特征与双渠道相反;2)当BOPS补货等待成本较小时,BOPS策略下全渠道门店总需求大于双渠道门店总需求;3)当顾客对门店库存预期较低时,全渠
汽车行业亟需一次数字化变革。“汽车在线”的趋势给行业来了前所未有的机遇,“十四五”期间,奇瑞将把握机会,着力打造数字奇瑞,实现弯道超车。当今世界正经历百年未有之大变局,全球产业发展格局正在深刻调整。“十四五”是我国实现制造强国的关键阶段,汽车强国是制造强国的重要支撑。汽车产业在经济和社会发展中有着举足轻重的地位。
智能网联汽车产业正处于高速发展阶段,健全汽车数据政策法规体系,做好汽车数据与网络安全的统筹工作,必将为智能网联汽车长久健康发展打下坚实基础。近年来,汽车产业电动化、智能化、网联化发展势头愈发强劲,汽车产品加快从单一交通工具向智能移动空间转变,截至2020年,我国已有15%的新上市车型装载了L2级自动驾驶系统。
智能网联汽车网络安全主要包括终端与设施安全、网联通信安全、数据安全、应用服务安全等方面。车联网(智能网联汽车)安全技术应该从终端、通信、云端、数据、服务等角度进行安全布局。智能网联汽车安全概述智能网联汽车面临的安全挑战主要有四个方面原因。第一,自动驾驶和智能网联功能本身的设计漏洞,即一些特定的场景在设计时可能没有考虑到。
多项目并行的人力资源管理日益成为研发型企业合理配置各类资源、实现利润最大化的有效方式.从项目成本和多能工满意度角度出发,运用第2代非支配排序遗传算法和蚁群算法对多
针对网购供应链延保服务决策效率和利润均衡问题,考虑产品故障率情形下,从延保价格、产品价格以及销售努力水平同时影响延保市场需求的角度,利用Stackelberg博弈构建了第三方服务商和电商平台的延保收益函数。分析比较了集中决策和分散决策下网购供应链的最优延保决策问题,探讨了2种收益共享契约对面向延保服务的网购供应链协调效果。研究表明,无论是集中决策还是分散决策,产品故障率的大小会同时影响延保服务的价格、销售努力水平、销售量及延保利润;传统收益共享契约无法实现面向延保服务的网购供应链协调,而改进收益共享契约并
考虑减排效果和低碳宣传效果的时延效应与消费者具有的低碳参考效应,针对由单个投入碳减排的制造商和单个投入低碳宣传的零售商组成的两级供应链,构建基于产品减排水平、低碳信誉和低碳参考的微分博弈模型。研究分散决策和集中决策下供应链的最优努力投入策略,并分析时延和参考双重效应相关参数对供应链决策和利润的影响。研究发现,集中决策下的最优努力投入高于分散决策的相应值,但集中决策下整体利润并非总是高于分散决策的相应值,两者利润差取决于减排效果和宣传效果的延迟时间;减排效果和宣传效果的延迟时间与参考效应的记忆参数和敏感参数
采用数字孪生技术对货到人拣货机器人系统RMFS(the robotic mobile fulfillment systems)进行研究,提出了针对RMFS系统的数字孪生模型构建方法并给出了数字孪生实例.实验数据
自动化仓库的货位优化是提高仓库效率的重要途经之一。本文针对电力仓库货位优化问题,采用基于多智能体强化学习的方法,提升优化效果。首先分析DDPG算法和MADDPG等算法的不足;然后在此基础上提出改进算法ECS-MADDPG及其模型。在该算法中,同时考虑当前时间点的即时奖励和未来奖励因素;最后利用电力物资的历史出入库数据,应用强化学习算法训练货位优化模型。研究表明,与MADDPG、DDPG等算法相比,ECSMADDPG拥有较高的稳定性和回报值。