Page 27 - BP_202307
P. 27

媒介理论在实践中的一个显著例子。尼尔·                              我们可能忽视问题的人类维度,以及
                     波兹曼在其于1985年出版的这本影响深远                        解决问题需要同理心、创造力和直觉。
                     的书中指出,电视作为一种占主导地位的                          当我们沉浸在虚拟现实和网络空间中
                     传播媒介的兴起,对公共话语和文化产生                          时,我们可能会脱离自然世界和我们自己
                     了深远的影响,导致批判性思维技能的削                          的人性。
                     弱和公共辩论的浅薄化。随着我们面对AI                              从这个意义上说,智能是一把双刃
                     扮演着越来越重要的角色的数字时代的挑                          剑:它可以增强我们的能力,改善我们的
                     战和机遇,波兹曼的见解比以往任何时候                          生活,但如果我们不能明智地、负责任地
                     都更有意义。                                      使用它,它也会导致我们的灭亡。我们需
                         虽然AI在改善我们的生活和解决复杂                       要培养一种“批判性智能”,它结合了严
                     问题方面前景广阔,但它也带来了我们必                          谨的分析、深刻的反思、谦逊的意识和对
                     须应对的重大风险和挑战。最紧迫的担忧                          自身局限性的认识。
                     之一是,随着我们疲于应对所面临挑战的                               我们需要培养一种“道德智能”,
                     复杂性和规模,人类智能和人工智能可能                          这种智能重视人的尊严、同情心和正义,
                     会导致我们走向灭亡。                                  并且认识到地球上所有生命的相互联系和
                         智能的魅力是令人神往的:它承诺帮                        相互依存。我们需要培养一种“生态智
                     助我们了解世界,预测未来,解决看似无                          能”,它尊重自然世界,寻求保护和增强
                     法克服的问题。然而,随着我们变得越来                          其多样性和抗逆力。
                     越智能,我们也可能更易受狂妄自大、过                               正如波兹曼警告的那样,如果我们做
                     于自信和目光短浅的危害。                                不到这一点,我们最终可能会自娱自乐至
                         我们可能会相信我们有所有的答案,                        死,但这一次不仅仅是通过电视,而是通
                     我们可以控制自然的力量,或者我们可以                          过AI介导的虚拟现实、社交媒体回音室和
                     设计出解决任何问题的方法。这可能导致                          算法决策。风险很大,但如果我们能够利
                     一种危险的自满,并忽视我们行动的意料                          用我们的智能为共同利益和勃勃生机的生
                     之外的后果。                                      命服务,那么创造、创新和进步的机会也
                         此外,随着AI变得更加复杂和自主,                       很大。
                     它可能会超出我们理解和控制它的能力。                               在AI技术的开发和部署中,确保我们
                     我们可能会创造出比我们更聪明的A I系                         避免用我们创造的智能“娱乐至死”是一
                     统,但它们也会变得更加不可预测、难以                          个不可或缺的考虑因素。当我们创造和部
                     捉摸,并具有潜在的危险。                                署AI技术时,我们必须注意它们对人类体
                         我们可能无法预测或防止它们的失                         验和行为的潜在影响,避免成为技术的被
                     败,也无法以符合人类价值观和目标的方                          动消费者,并采取措施确保以促进批判性
                     式规范它们的行为。我们可能会无意中创                          思维、有意义的话语,并且不会对整个社
                     造出我们无法打开或理解的“黑盒子”,                          会造成有意或无意的伤害的方式开发和使
                     但它们有能力影响我们的命运。                              用它们。
                         此外,当我们更多地依赖AI来解决问                            最终,作为人类,应该以一种有益于
                     题和做决策时,我们可能会失去自己批判                          我们的方式使用AI技术。重要的是要认识
                     性思考和道德判断的能力。我们可能会依                          到,虽然AI可以帮助我们完成许多任务,
                     赖机器来引导我们,为我们提供答案和解                          但正是我们的创造力、情商和批判性思维
                     决方案,但不完全理解潜在假设和折衷。                          让我们与其它物种不同。



                                                                                                 《传播与制作》2023 年第 07 期  27
   22   23   24   25   26   27   28   29   30   31   32