随着人工智能(AI)和算法系统日益渗透到现代生活的方方面面,从医疗保健、教育到金融、交通运输,我们正经历一场深刻的变革。这些技术无疑具有巨大的创新和效率提升潜力,但其固有的不透明性也引发了关于问责制、公平性和民主治理的重大担忧。这种担忧在零工经济中尤为突出,特别是在网约车平台,算法决定着数百万司机的劳动条件、工资,甚至工作保障。这些系统缺乏透明度不仅影响了个人的生计,还削弱了对平台的信任,并引发了更广泛的关于负责任地部署人工智能的疑问。

问题的核心在于许多人工智能算法的“黑箱”性质。以网约车平台为例,它们使用复杂的算法来分配订单、确定价格、评估司机表现,甚至决定是否禁用司机账号——通常不向司机提供明确的解释或申诉机会。这种不透明性造成了一种权力失衡,使司机容易受到不可预测的收入和武断决定的影响。普林斯顿大学信息技术政策中心(CITP) 和 WAO 的研究强调,迫切需要了解这些不透明的决策如何影响司机,并开发能够赋权工人和劳工组织者的工具。一个关键发现是,司机需要特定的“指标”——关于订单、司机统计数据、算法执行情况和平台政策的详细信息——才能做出明智的工作决策。如果没有这些信息,司机就会在一个他们不了解的系统中航行,阻碍了他们优化工作和争取公平待遇的能力。

不仅如此,算法还可能存在偏见,进一步加剧了这种困境。一些案例显示,算法会延续现有的不平等现象,比如西弗吉尼亚州基于不透明算法的Medicaid福利削减政策就引发了诸多问题。这种算法偏见的存在警示我们,即便在声称客观公正的算法背后,仍可能隐藏着人为的歧视和不公。这意味着我们需要更加深入地审视算法的设计和数据训练过程,确保其不会无意识地放大社会偏见。

算法决策缺乏透明度的后果远不止个体的经济困境。不受制约的算法决策权对民主原则构成威胁。正如参议员加里·彼得斯 (D-MI) 在2023 年所说,透明度对于在人工智能系统中建立问责制和信任至关重要,尤其是在人工智能的应用范围不断扩大到各个行业的情况下。卡内基国际和平基金会强调的人工智能生成虚假信息的泛滥进一步凸显了这一点。没有透明度,就越来越难以识别和打击对信息的恶意操纵,从而威胁选举过程并削弱公众对机构的信任。更重要的是,人工智能可能被用于监视和控制,加上缺乏明确的监管框架,引发了对公民自由和民主监督的严重担忧。信息与民主论坛认识到在全球信息空间中需要民主保障,强调负责任的人工智能开发和部署的重要性。即使在看似无害的应用中,比如医疗保健,临床试验中使用的算法也可以在没有充分的伦理保障的情况下决定治疗分配,正如《福布斯》所指出的那样,这表明迫切需要加强审查。

应对这一挑战需要多管齐下的方法。仅仅依靠平台自愿提供透明度是不够的,因为它们的激励机制往往优先考虑利润,而不是工人福利或公共利益。研究人员呼吁制定新的法规,强制平台发布公共透明度报告,详细说明算法流程和绩效指标。美国2023 年提出的《算法问责法》和欧盟的《人工智能法》代表了朝这个方向迈出的步伐,要求高风险人工智能系统的提供商披露其模型的关键特征。然而,仅仅透明度是不够的。研究人员还需要访问数字痕迹数据,以便进行独立分析并识别潜在的偏见或危害,同时也要承认操纵和滥用的风险。此外,正如英国政府的道德、透明度和问责制框架所强调的那样,培养公务员和公众的算法素养对于有效的监督和知情的决策至关重要。最终,正如“公共人工智能”倡导者所建议的那样,转向公共拥有和开发的人工智能系统可以实现人工智能市场的民主化,并确保这些强大的技术服务于公共利益,而不是加剧现有的不平等并破坏民主价值观。我们需要一个全面的治理框架,将公平、问责制、透明度和伦理道德纳入其中才能够保障算法决策时代的福祉。

因此,未来科技的发展方向必须以人为本,以民主为基础。我们不能让算法成为凌驾于人类之上的权力工具,而应该将其视为服务于人类福祉的手段。这意味着我们需要从技术设计之初就考虑到伦理道德和社会公正,确保算法的透明度和可解释性,并建立有效的监管机制来防止其被滥用。唯有如此,我们才能真正迎接人工智能带来的机遇,并避免其潜在的风险,构建一个更加公正、公平和民主的未来。否则,我们将面临一个由算法主宰的世界,在那里,个人的自由和权利将受到严重的威胁,而民主的价值也将荡然无存。