2025年11月,JFE发布了“How costly are cultural biases? Evidence from FinTech”一文。该文通过印度P2P借贷平台Faircent的自然实验,探究了文化偏见在风险决策中的存在、影响及其经济成本。研究比较了贷款人在无辅助条件下与接受机器人顾问(robo-advising)建议后的贷款选择,发现贷款人存在显著的群体内偏好和刻板印象歧视,导致其投资组合违约率上升、回报下降。机器人顾问的引入有效减少了这类偏见,改善了贷款人的财务表现。该文进一步区分了“不准确的统计歧视”(inaccurate statistical discrimination)与“基于偏好的歧视”(taste-based discrimination),指出前者是主要机制。研究不仅量化了文化偏见的经济代价,也为算法工具在纠正人类决策偏差方面的潜在作用提供了实证支持。中国人民大学金融科技研究所(微信ID:ruc_fintech)对研究核心部分进行了编译。
作者 | Francesco D’Acunto, Pulak Ghosh, Alberto G. Rossi
在信息不对称环境下准确识别文化偏见的类型并量化其经济成本,是行为金融学与社会经济学面临的重要方法论挑战。该文通过印度P2P借贷平台的自然实验设计,利用机器人顾问工具的引入作为外生冲击,构建了独特的实证场景。研究结果表明,贷款人在自主决策时表现出显著的群体内偏好与刻板印象歧视,导致其投资组合面临更高的违约风险与更低的投资回报。算法工具的介入不仅有效纠正了贷款决策中的系统性偏差,还显著提升了贷款人的财务表现。该研究的理论贡献在于深化了对"非准确统计歧视"形成机制的理解,方法创新体现在利用金融科技场景构建了有效的识别策略,实践价值则为基于算法的歧视矫正机制设计提供了科学依据,对推动数字金融时代的公平信贷实践具有重要启示意义。
研究场景为Faircent——印度一家专注于个人对个人(P2P)借贷的金融科技平台。其核心特征在于将借款人筛选与贷款决策分离:平台通过自动化算法与人工审核对申请人进行风险评估,仅允许通过筛选的借款人进入资金池。贷款人无法修改贷款利率、期限等核心条款,仅能决定是否投资及投资金额。此外,平台禁止贷款人与借款人之间的直接沟通,且贷款人常跨多个州进行投资,因此排除了本地社会压力、关系型监控等传统机制对还款行为的影响。
机器人顾问工具“Auto Invest”于2018年下半年推出,允许贷款人将部分或全部资金交由系统自动匹配借款人。该工具仅根据借款人进入资金池的时间顺序进行匹配,不利用任何人口统计信息,因此其建议与贷款人或借款人的宗教、种姓等因素无关。贷款人可选择完全接受、部分修改或完全拒绝机器人的建议。这一设计为检验“基于偏好的歧视”与“不准确的统计歧视”提供了关键情境:若贷款人出于偏好而歧视,他们应有动机推翻机器人与被歧视群体的匹配建议;若为无意识的信念偏差,则更可能接受建议。
数据与样本特征
研究使用了2018年1月至2020年3月期间的七类数据集,涵盖贷款人特征、借款人特征、贷款合同信息、还款表现及Auto Invest使用情况等。由于平台未直接收集宗教与种姓数据,研究者通过印度婚姻登记数据,结合Bhagavatula等人开发的算法,依据姓氏、地理位置等信息推断了贷款人与借款人的宗教与种姓归属。
样本分为两部分:一是用于分析群体内与群体外歧视的样本,包含113,283个贷款人-借款人-贷款三元组,其中99%的贷款人为印度教徒,13%的借款人为穆斯林;二是用于分析刻板印象歧视的样本,仅包含印度教徒,涵盖62,831个三元组,其中39%的借款人为低种姓“首陀罗”(Shudra)。值得注意的是,使用Auto Invest后,贷款人投资组合的风险显著降低,平均利率与违约率均下降。
表1:数据与样本特征表
研究首先检验了基于宗教的群体内偏好。在无辅助决策时,印度教徒贷款人更倾向于借款给印度教徒,穆斯林贷款人则更倾向于借款给穆斯林。
图1:两类贷款人对异宗教群体的对比
使用Auto Invest后,两类贷款人对异宗教群体的贷款比例均趋近于平台上的群体比例,表明机器人建议有效消除了宗教偏见。多元回归分析进一步证实了这一结果。研究者估计了以下计量模型:
图2:计量模型建立
模型控制了贷款特征、贷款人固定效应与时间固定效应。结果显示,印度教徒贷款人在使用AutoInvest后对穆斯林借款人的贷款概率显著上升,而穆斯林贷款人则相反。异质性分析发现,偏见程度与贷款人所在地的宗教冲突强度正相关:居住在历史上印度教-穆斯林冲突频发地区、或支持印度民族主义政党BJP的地区的贷款人,表现出更强的群体内偏好。
刻板印象歧视与种姓因素
第二种文化偏见形式为刻板印象歧视,即所有贷款人(包括首陀罗自身)均系统性地歧视低种姓群体。在无辅助决策时,首陀罗借款人在所有贷款人投资组合中的比例均低于其平台占比;使用AutoInvest后,这一比例显著上升。
研究利用种姓可识别性的连续变量进行了强度边际检验:当借款人的种姓易于识别时,歧视更为显著;反之则几乎消失。此外,居住在针对低种姓犯罪率较高地区的贷款人,表现出更强的歧视倾向。这些发现表明,刻板印象歧视的强度与社会身份的显着性密切相关,且这种偏见甚至存在于被歧视群体内部,进一步排除了“亲族利他主义”(kinaltruism)的解释。
文化偏见的经济成本
文化偏见的存在应导致贷款人对偏好群体的贷款选择更深入风险池,从而引发更高违约与更低回报。研究从违约率与投资回报两个维度检验了这一假设。在违约率方面,无辅助时,印度教徒贷款人选择的穆斯林借款人违约率显著低于印度教徒借款人;使用AutoInvest后,印度教徒借款人的违约率改善更为明显。控制贷款风险特征后,群体间差异消失,表明偏见的成本主要源于风险池选择的系统性偏差。
结果显示,无辅助时,穆斯林借款人提供的回报显著高于印度教徒借款人;使用AutoInvest后,回报提升主要来自印度教徒借款人。分位数回归进一步表明,回报改善主要源于左尾低回报贷款的减少。
平均而言,群体内偏见样本的贷款人回报提升4.5个百分点,刻板印象偏见样本提升7.3个百分点。若以卢比计值,前者平均每贷款人增加收益457卢比(占前期投资额的6%),后者增加862卢比(占12%)。
该文通过金融科技场景下的自然实验,揭示了文化偏见在高风险经济决策中的普遍性及其显著经济成本。贷款人在无辅助时表现出强烈的群体内偏好与刻板印象歧视,导致其投资组合绩效受损;机器人顾问的介入通过提供与人口统计无关的匹配建议,有效纠正了这些偏见,提升了贷款人的财务回报。结果更符合“不准确的统计歧视”机制,即贷款人持有对某些群体的错误信念,而非出于有意识的偏好。
研究强调了算法工具在改善人类决策中的潜在作用:它们不仅能提供无偏建议,还可作为识别与量化决策偏差的基准。未来研究可探索机器人顾问在教育与学习效应方面的延伸价值,例如通过交互设计帮助用户形成更优的决策启发式。在政策层面,机器人建议或可成为替代传统干预(如披露要求与金融素养教育)的有效工具,尤其适用于个体未能完全认知自身偏见的场景。