GPT-5的平庸表现凸显了一个问题,它打破了AI界最珍视的信条之一,那就是"规模化"(scaling up)——只要给技术投入更多的算力和更多的数据,就能离通用人工智能(artificial general intelligence, AGI)的圣杯越来越近。
正是这个信条,支撑着AI行业在数据中心和高性能芯片上的巨额开销。据摩根士丹利估计,仅到2028年,对更多数据和数据处理能力的需求就将需要约3万亿美元的资本。这个数字将超过全球信贷和衍生品证券市场的承载能力。但如果AI无法通过规模化实现突破,那么这些钱中的大部分(如果不是全部的话)都将付诸东流。
Python
# AI规模化投资的潜在风险
def calculate_investment_risk(capital_investment, expected_return, actual_return):
"""
计算AI规模化投资的风险
:param capital_investment: 资本投入(单位:万亿美元)
:param expected_return: 预期回报率
:param actual_return: 实际回报率
:return: 风险值
"""
risk_factor = (expected_return - actual_return) * capital_investment
return risk_factor
# 以3万亿美元投资为例
ai_investment_risk = calculate_investment_risk(3, 0.15, 0.01)
print(f"AI规模化投资风险值: {ai_investment_risk}万亿美元")
今天的AI鼓吹者们把AI机器人经常犯的错误和编造的内容称为"幻觉"(hallucinations),这个词暗示机器人有感知能力,只是偶尔出了点小差错。但正如本德和汉娜所写,"机器人根本没有感知能力,暗示它们有,是又一种毫无帮助的拟人化。"