大数跨境
0
0

UTD24顶刊:用大语言模型研究ESG“漂绿”!

UTD24顶刊:用大语言模型研究ESG“漂绿”! 数据皮皮侠
2025-07-17
1
导读:Diversity washing!

会计学顶刊Journal of Accounting Research(UTD24/FT50)近期发表的论文“Diversity washing使用大语言模型BERT分析“DEI”(多样性、公平性和包容性)的句子主题,是使用大语言模型构建实证指标的经典例文。对大语言模型感兴趣的可以了解一下近期推出的《Python计算社会科学训练营:从0基础到机器学习与大语言模型进阶》,共设置Python结构化数据分析、网络数据采集、文本分析、机器学习、社会网络分析、大语言模型6个专题模块,含Management Science、Review of Financial Studies、Research policy等22个案例。

文献来源:Baker, Andrew C., et al. "Diversity washing." Journal of Accounting Research 62.5 (2024): 1661-1709.

越来越多的指控表明,公司对其环境、社会和治理 (ESG) 活动的描述存在可疑之处,这些类虚假陈述通常被称为“漂绿”或“社会漂绿”。作者评估了公司在其财务报告中对多样性、公平和包容性 (DEI) 的公开承诺与其员工的基本多样性之间的不一致。

其中,文章一个亮眼方法贡献是基于BERT的方法分析含有关键词“DEI”(多样性、公平性和包容性)的句子主题,进一步探究企业如何讨论DEI议题。简言之,BERT是一种基于Transformer架构的神经网络,其通过分析词汇周边共现语境来推断语义。作者采用了BERT的扩展模型——SentenceBERT,该模型在超过10亿句子的语料库上进行了预训练,旨在分析句子层级的语境而非单个词汇。选择SentenceBERT是因为大多数涉及DEI的句子仅包含单一主题,而该方法更适用于句子级分类。作者将主题数量设定为20个,并由ChatGPT根据句子样本为每个主题分配标签。借鉴Dyer, Lang和Stice-Lawrence [2016]的研究框架,将这些主题归纳为可解释的类别,并报告与DEI议题最直接相关的四种类别。

文章记录了公司在多样化、公平和包容性 (DEI) 方面的外部立场与其实际招聘之间存在显著差异Diversity Washing的好处是:1)从评级机构获得了更高的环境、社会和治理 (ESG) 分数;2)吸引更多以 ESG 为重点的机构投资者的投资。尽管Diversity Washing公司更有可能发生歧视违规行为并发生与人力资本相关的负面新闻事件,但清洗者依然会获得上述好处。我们的研究提供的证据与越来越多的指控一致,这些指控称公司对其 DEI 计划发表了误导性陈述,并强调了选择性 ESG 披露的潜在后果。





【声明】内容源于网络
0
0
数据皮皮侠
社科数据综合服务中心,立志服务百千万社科学者
内容 2137
粉丝 0
数据皮皮侠 社科数据综合服务中心,立志服务百千万社科学者
总阅读615
粉丝0
内容2.1k