分享自:

负责任人工智能在中国制造业中的创新应用:基于可供性-实现理论的研究

期刊:Technological Forecasting & Social ChangeDOI:10.1016/j.techfore.2025.124349

这篇文档属于类型a,即报告了一项原创性研究。以下是针对该研究的学术报告:


负责任人工智能(Responsible AI)如何推动中国制造业负责任创新:基于可供性-实现理论的探索

一、作者与发表信息
本研究由宁波诺丁汉大学商学院(University of Nottingham Ningbo China)的Dandan Ye、Ruizhi Yuan、Jun Luo(通讯作者)、Martin J. Liu,以及英国纽卡斯尔大学商学院(Newcastle University Business School)的Natalia Yannopoulou合作完成,发表于期刊 Technological Forecasting & Social Change 2025年第221卷。

二、学术背景
1. 研究领域:本研究横跨人工智能伦理(AI Ethics)、负责任创新(Responsible Innovation)和组织行为学,聚焦制造业中AI技术的负责任应用。
2. 研究动机:尽管AI在制造业中广泛应用,但其伦理治理(如透明度、公平性)常被忽视,导致算法偏见、信任缺失等问题。现有研究多关注AI设计阶段的伦理,而AI与外部利益相关方(如供应商、客户)协作实现负责任创新的机制尚未明确。
3. 理论框架:基于可供性-实现理论(Affordance-Actualization Theory),探讨AI技术如何通过“行动可能性”(Affordances)转化为实际成果。

三、研究流程与方法
研究采用混合方法设计(Mixed-Methods),分两阶段进行:

  1. 研究1:定性访谈(n=26)

    • 对象:中国制造业企业的高管(如技术总监、采购经理),均深度参与AI整合。
    • 方法:半结构化访谈,聚焦AI应用中的伦理实践、利益相关方协作等主题。
    • 分析:通过开放式编码和轴心编码识别核心范畴,如“联合规划”(Joint Planning)、“伦理氛围”(Ethical Climate)等。
  2. 研究2:定量调查(n=618)

    • 对象:中国制造业的销售与采购经理(样本覆盖大中小企业)。
    • 工具:采用已验证量表测量变量,如负责任AI(26题)、负责任创新(8题)等。
    • 分析:使用偏最小二乘结构方程模型(PLS-SEM)检验假设,通过Bootstrapping验证路径显著性。

四、主要结果
1. 负责任AI的三大可供性
- 联合规划(β=0.68, p<0.001):AI的透明数据共享使企业与供应商共同预测需求,优化库存。
- 联合问题解决(β=0.65, p<0.001):通过算法分析实时数据,协作诊断生产故障(如某案例中AI识别阀门缺陷,减少10%测试中断)。
- 伦理氛围(β=0.72, p<0.001):数据加密协议与合规性共识提升了跨组织信任。

  1. 中介机制:上述可供性通过利益相关方参与(Stakeholder Engagement)和集体伦理效能(Collective Ethical Efficacy)间接促进负责任创新(R²=0.87)。

  2. 调节效应:组织正念(Organizational Mindfulness)负向调节AI与联合规划(β=-0.034)、伦理氛围(β=-0.041)的关系,表明过度谨慎会抑制AI潜力的发挥。

五、结论与价值
1. 理论贡献
- 首次将可供性-实现理论应用于AI伦理领域,揭示“技术特征-协作行为-创新成果”的链式机制。
- 提出“外部利益相关方可供性”概念,弥补了现有研究对内部员工偏重的局限。
2. 实践意义
- 企业应建立AI伦理协作框架(如联合数据治理委员会),并平衡自动化与人工审查。
- 政策制定者可参考本研究设计制造业AI伦理指南,强调跨组织透明度。

六、研究亮点
1. 方法创新:混合方法设计兼顾深度与广度,访谈饱和于26人(456页转录文本),量化模型通过HTMT检验区分效度(值均<0.85)。
2. 情境特异性:聚焦中国制造业,揭示文化因素(如对数据安全的保守态度)对AI实施的影响。

七、其他价值
研究指出,AI伦理不仅是技术问题,更是社会协作过程。未来可探索不同国家制度背景下的比较研究,或开发AI伦理实际化(Actualization)的评估工具。


(注:全文约1800字,符合要求;术语如Affordance-Actualization Theory首次出现时标注英文,后续使用中文表述;数据分析细节与假设检验结果均基于原文量化部分。)

上述解读依据用户上传的学术文献,如有不准确或可能侵权之处请联系本站站长:admin@fmread.com