点赞

浅谈科技伦理的历史和现状

发布时间: 2020-12-17 发布来源:李侠科学网博客

24
12110

作者:李 侠,上海交通大学科学史与科学文化研究院教授。

伦理观念的产生历史悠久,也是人类社会进入文明状态的标志,人类靠它来维持社会秩序,它的判据基础是基于某项观念或行为对于人类社会所造成的或隐或现的影响,以此做出该行为是善的还是恶的判断。顾名思义,科技伦理是伴随科技的兴起而产生的一种新规范,意指科技观念或行为对社会造成的结果与影响。相对而言,科技伦理产生的历史较短,即便尽量往前追溯,也只能追溯到第一次科学革命开端时刻,即哥白尼(1473-1543)提出“日心地动说”的那一刻,这套观念与当时主流的托勒密(公元90-168年)的“地心说”是矛盾的,哥白尼的理念对于当时人们的观念与认知以及社会秩序造成严重冲击。在当时的教会看来,这就是异端邪说,也是道德上恶的行为,这种状况要历经布鲁诺、伽利略到牛顿时代,延续100多年后宣传哥白尼的学说才算安全的。由此可知,对伦理观念的判断是随时代而变化的,这也造成一种认知困境:伦理判断是客观的吗?德国社会学家马克斯•韦伯把指导行为的伦理原则划分为两类,信念伦理与责任伦理。所谓信念伦理是指行为的动机是否符合善的原则,而责任伦理则强调行为的后果是否符合善的原则。

由于科技是两种完全不同的事物,科学的产出物大多的是知识与观念,而技术的产出物大多是具体的产品与流程,因此,对于科学来说,对于观念的判断更应该采用信念伦理来衡量,即这种观念是否有益于人类社会,这是科学家开展工作时必须时刻考虑的问题;反之,对于技术成果的判断则适合采用责任伦理,即该项技术成果对于人类的福祉是增加了还是减少了。基于这种划分,科学与技术的伦理审视才是可操作的。

科技伦理真正登上人类思想的舞台,要等到科技真正开始改变人类命运的时刻,而这一刻要从第一次工业革命开始算起,那是人类第一次用全新的力量科技改变生活与社会秩序的时刻。从这个意义上说,科技伦理真正被世人感知的历史距今也就200多年,而科学观念变革的历史则有400多年(近代科学的历史)。客观地说,第一次工业革命时期,科技的力量还相对比较弱,此时人们对于科技的认知大多是茫然与复杂的,茫然感源于整个社会公众的知识水准比较低,不能理解科技的实质,只能被动接受;发生于英国十九世纪初(1810-1816年间)的卢德运动(Luddite),就是当时的工人认为以机器为代表的新技术取代了他们的工作,他们把愤怒的矛头指向替代它们的机器,为此他们开展了一场轰轰烈烈的“捣毁机器、抵制新技术”的运动,这就被后人称为卢德运动。这应该是历史上人类第一次面对技术与人的关系而采取的行动,虽然效果不理想,但技术会影响人的存在状态这点开始被人们意识到。

第一次工业革命时期,真正能够称得上科技伦理思考的论述,当以玛丽·雪莱(Mary Shelley,1797—1851)夫人的科幻小说《弗兰肯斯坦》(1818年)为代表,这部科幻小说讲述了弗兰肯斯坦利用科技制造怪人的故事,这个怪人最后演变为恶魔,这应该是近代以来人类第一次以科幻小说的形式探讨与设想没有约束的科技可能造成的可怕后果。第二次科技革命,以电为代表的新技术让十九世纪后半叶的人们对技术的未来产生一种乐观情绪,生活与社会在各项科技成果的推动下呈现出快速进步的态势,但是这段时期科技的整体水平仍然很低,科技的本质并没有的得到充分的展现,到20世纪中叶以前,最新科技成果在两次世界大战中的率先应用,开始让人们感觉到科技不仅仅可以造福人类,还可以造成对人类的毁灭性打击,尤其是原子弹的爆炸,更是加深了人们对科技的“双刃剑”效应的担忧:科技既可以造福人类,也可以毁灭人类。用什么力量来让科技最大限度上走向正效应而避免负效应,这就成为20世纪知识界与公众的关注焦点,也正是在这个意义上,科技伦理开始得到世人的充分关注。如果说20世纪的科技还只是从物理层面改变人类的存在状况,如环境问题、先进武器对于人类的杀伤效果等,那么21世纪的科技则可以极大地改变人类的精神世界,甚至重新书写人类的本质,这才是最令人担忧的改变,为了防止这类情况的发生,必须给科技的发展套上伦理的缰绳,否则人类将会以进步之名把自己毁灭掉。

21世纪的科技呈现出高度一体化的特点:科学技术化与技术科学化。由此一来,新科技的发展必须从源头上把信念伦理与责任伦理结合起来考虑,否则根本无法约束新科技的发展一定走向善的道路,在大数据、算法与人工智能时代,这种紧迫性尤为明显。为此,我们不妨分析两个当下最热门技术的伦理治理之路,不难发现其中面临的诸多困境。由于现在新兴技术层出不穷,而且高度渗透进人类的生活,因此,必须把这些技术的发展置于伦理的审视之下,否则后患无穷。就拿人脸识别来说,该技术通过对个体面部轮廓信息进行比较和分析来识别和验证个人身份。如今面部识别系统的准确率可以达到95%以上,据资料介绍该行业2019年的市场规模为19亿美元(2024年将达到70亿美元),逐渐成熟的技术以及广大的市场需求,可以预见该行业会向纵深方向推进。笔者曾开玩笑说:人脸识别加上互联网,小偷行业已经到了退出历史舞台的时候了。也许更为常见伦理问题是,如果人脸识别被滥用,会造成很多严重的后果,已经有学者根据罪犯脸型的特征数据,设计相关的人脸识别软件,如果这类识别出现错误,将给被误认者的生活带来无尽的烦恼。再有,如果人脸识别数据被泄露,在3D打印技术不再稀缺的当下,如何防止被泄露者的脸被罪犯盗刷呢?再比如,计算机科学家采集到足够多的LGBT者的脸部信息,利用软件就可以识别出这类隐私信息,那么如何防止LGBT群体不被歧视呢?

再来看看大数据。各类平台与商家利用各种渠道获得关于个体的大量数据信息,利用算法的不透明性,平台/商家可以轻松实现“杀熟”现象,即歧视性定价。目前所有算法都处于黑箱状态(以商业秘密之名),普通人根本没有能力理解这些算法,算法横行已是当下的常态,各类定向推送广告与定向信息喂养已经屡见不鲜,这些都是我们经历过或者听闻过的,它的进一步应用对公众的损害更大也更难以投诉。美国记者卢克•多梅尔在访谈犯罪学家理查德•伯克时就如何利用数据鉴别谁实施犯罪时,他明确指出:我在做出对某些人不利的预测时,从来不会给出理由。无论得出什么结论,我都不会解释其中的原因,我唯一的目标就是做出正确的预测。伯克认为,错误会以假阳性与假阴性这两种形式出现。假阳性是指被错误地认定为威胁程度高的人,而假阴性则指威胁程度高但被错误地认定为威胁程度不高的人。这种潜在缺陷,对于执行者而言,他们认为:没能准确地发现威胁程度高的人,其导致的结果比错误地认定某人威胁程度高更加糟糕。这就不可避免地在实践中出现宁可错杀一千,不可放过一人,对于管理者来说,冤枉一个人的成本比错放一个假阴性者低很多,在这种管理理念下,将有很多无辜者成为算法的牺牲品。在数字化时代,技术对于人类的理解越来越深,而人类却越发不理解技术。在这种认知不对称背景下,诚如达尼埃尔•西特龙所说:他们的错误非常严重,对政策进行错误的编码导致成千上万的人遭遇不公正的对待,造成这个问题的全部原因就是编码的人没有相关的背景知识。这就引申出一个严重的伦理悖论:懂伦理的人无法参与到具体的算法工作中去,相反那些不懂伦理的人却在为人类的行为编写算法。程序员们被赋予了过多的决策权,而且不会受到任何审查。此时你是相信伦理学家还是相信技术人员呢?

科技已经全面渗透到人们的日常生活中,不论你喜欢与否这种趋势已成定局。问题是我们该如何防范科技可能带来的这些危害,方法无非三条:首先,加大政府的监管力度。只有政府具有强制力约束科技产业的发展,毕竟任何企业与平台都要受到政府的监管;其次,具体科研人员要有伦理意识,自觉抵挡某些诱惑,为人类未来(包括他自己)负起责任来。毕竟一旦有问题的新技术出现,他也将成为潜在的受害者,如何让科研人员有较高的伦理意识呢?途径只有两条:教育系统的科技伦理教育与全社会科技伦理知识的普及;第三,要有一个宽松的公共空间,让整个科技的受众(公众)有权监督科技的发展。这是全方位无死角的监督,要求公众要有公民意识,不能只想着搭便车的行为,否则,所与人都将成为新科技的奴隶。行文至此,笔者内为心还是有些悲观的,目前全世界都在提倡负责任创新,期望让伦理理念贯穿到创新的所有环节,理念很好,但是能有多大效果呢?希望这些努力会起到一些作用。在“民族-国家”框架下,国家间的科技竞赛不可避免地陷入“军备竞赛”的模式,此时关注伦理的一方总是吃亏的?如何停止这种恶性竞争,这也是学界未来需要努力探索的理论难题。不论效果如何,我们还是需要从无数的微小努力开始,让科技最大限度上造福人类而不是相反,万一人类觉醒了呢,希望总是有的。

Ethics-vs-Morals.png

说明:文中图片来自网络,没有任何商业目的,仅供欣赏,特此致谢!

展开
收起