Leukotomy和Turing Test给智力科学实验和人工智能测试定下了错误的奖赏和资源分配标准


所有跟贴·加跟贴·新语丝读书论坛

送交者: scott 于 2021-07-01, 11:45:15:

回答: Leukotomy诺贝尔奖的错误不纠正,问题会越来越严重。严谨的科学思维其实让人厌烦疏离 由 scott 于 2021-07-01, 00:10:39:

所以Leukotomy和Turing Test式思维成为脑和智力研究的主要障碍,事实上允许并鼓励了在学术界睁眼说瞎话。

现在脑和智力研究方面的正确观点根本得不到研究资源,就是因为实验和测试标准是错误的,奖赏和资源分配标准当然也是错误的。

计算机语言处理中关系到科学和文明兴衰的大问题:逻辑和诡辩问题根本没有解决,但计算机语言处理的主要数据测试平台却宣称人工智能已经超过人类了。

这种误导是错误的实验和测试标准造成的,也进一步造成了错误的奖赏和资源分配。

我提出Word-embedding Vector Space和Nash Embedding Theorems的问题,只是提醒别人现在计算机语言处理的理论和实验水准很低,需要新的理论和数学。

但科学基于实验,跟数学不同。没有实验资源,像陈景润或张益唐那样做研究,是没法研究Word-embedding Vector Space和Nash Embedding Theorems的局限性的。




所有跟贴:


加跟贴

笔名: 密码: 注册笔名请按这里

标题:

内容: (BBCode使用说明