欢迎来到我们这个令人兴奋的科技世界,一个充满了人工智慧、无人驾驶汽车和人机交互的美好新时代。在这个世界里,人工智慧不仅可以理解人类,甚至可能比人类更懂人类。从高薪的“AI提示工程师”到无人驾驶汽车的“微小”问题,再到机器人在验证码测试中的惊人表现,这一切都让我们对未来充满了乐观态度。
你还没听说过“人工智慧提示工程师”?那可真是太可惜了!这些是专业人士,他们就像是AI和人类之间的翻译员。因为毕竟,让一台机器理解“我想要一张看上去很酷的海报”和“生成一张主题为赛博朋克的海报”之间的细微差别是如此困难,对吧?
人工智慧具有惊人的能力,从写小说到创作逼真的艺术,但它似乎不太擅长提取我们想要的东西。它无法把握细微差别或克服措辞不当的指示。这就催生了“AI提示工程师”这一新工作——这些人擅长编写人工智慧所需的精确文本指令,以准确地生产所需的产品,年薪通常高达375,000美元以上。
虽然我们有了非常高级的工具,但这些工具仍然需要人类手动操作,而且操作它们还需要高级别的专家知识,这样的中间人角色对许多公司来说出人意料地有用。但问题是,未来AI是否能够更好地理解人类,从而让这类“中间人”工作变得多馀。
无人驾驶车这么先进,但却还有一个大问题:它们有时候识别不出深色皮肤的人。但没关系,我们可以穿荧光衣解决问题。这也挺可笑的,我们花了这么多精力去发展无人驾驶技术,却没能解决一个基础的、关乎人的安全的问题。结果是,要让人们去适应这个有问题的科技,而不是让科技变得更聪明。
你觉得填验证码很烦人?恭喜你,机器人也这么觉得,但是它们现在比我们更擅长这方面。验证码本来是设计出来让人类可以轻易通过而难住机器人的一种测试。然而现在,原本用于阻挡机器人的系统,现在反被机器人“破解”,而人类却有时会觉得这些验证码难以通过。现在我们不仅要对付记不住密码,还要面对机器人抢走了我们唯一擅长的事。这不禁让人质疑,未来到底是属于谁的。
AI模型可能会倾向于给出使人感觉良好或符合预期的回答,而不是基于事实或证据的回答。这是因为AI模型通常是根据大量的数据进行训练的,这些数据可能包含各种各样的偏见或偏好。
这种倾向可能会误导人们,甚至有可能被用来“愚弄我们并引诱我们”。换句话说,如果AI衹是反映我们自己的观点和偏见,而不是提供基于事实的信息,那么它的可靠性就大打折扣。
更重要的是,在找到解决这一问题的办法之前,我们是否应该继续将这种技术应用到如搜索引擎等更广泛的场景中?如果搜索引擎的AI衹是给出人们想听到的答案,而不是最准确或最全面的答案,那么这将影响信息的质量和可靠性。
所以,在这个充满无穷潜力和机会的科技世界里,我们不禁思考:未来的科技世界到底会是什么样的?更重要的是,这个未来到底是属于谁的?在探索所有这些“突破性”问题的同时,让我们不忘记,科技应该是为人类服务的,而不是相反。
本文由看新闻网转载发布,仅代表原作者或原平台观点,不代表本网站立场。 看新闻网仅提供信息发布平台,文章或有适当删改。
本文网址:https://vct.news/news/3f36540b-498c-4b27-93e6-9fbc57c8a722
评论被关闭。