当我今年参加纽约 Quirk 活动时,我尝试参加所有标题中带有 AI 的主题演讲。 这几乎是不可能的。它们太多了,以至于重叠了。尽管如此,我从这次会议中获得了对人工智能的新见解,包括它的能力、如何保护数据以及人类在这个快速发展的世界中的位置。我参加的大多数演讲都是关于生成式人工智能的,更具体地说是关于 ChatGPT 的。这些研讨会涵盖了这项技术的基本解释、如何编写有效的提示、它的好处(例如帮助研究人员开发问卷)以及它所带来的各种威胁。
在威胁方面,数据质量是最普遍的问题之一——聊天机器人冒充真实参与者,损害了数据有效性。数据有效性对项目至关重要:当数据不可信时,项目就会夭折。
这些演讲提供了应对风险的实用策略,但观众似乎关注的是一组略有不同的问题。例如:
- 人工智能适合于哪些领域?
- 当我们尝试以人为本时,我们真的应该把人性排除在外吗?
- 我怎样才能确保我的数据不会被泄露(并且不会对我造成影响)?
人工智能适合于哪些领域?
我知道什么是人工智能,但我仍然问自己“那又怎样?”有一种可能的解释,即人工智能的最新进展与专家们找到明确方法利用它的能力之间的脱节。从根本上讲,人工智能是一门技术学科,由数据科学家和软件工程师引领。虽然很容易展示聊天机器人的强大功能,但展示人工智能如何融入更大的工作流程却不那么简单。
我想到了
个解决方案寻找问题的比喻。虽然人工智能已经展现出令人难以置信的能力,但仅仅模仿人类推理的能力还不足以解决复杂的问题。将人工智能与人类进行比较就是一个方便的例子。尽管人工智能和人类都表现出批判性思维能力——或者在人工智能的情况下模仿能力——但缺乏专业知识使他们无法依赖这种能力作为解决问题的唯一工具。无论是自然推理还是人工推理,推理本身都只是方程式的一部分。推理要想发挥作用,就必须以目标为框架,并辅以更大工作流程中的其他任务。当我们尝试以人为本时,我们真的应该把人性排除在外吗?
在这个只需点击一下即可 WhatsApp 号码数据 建立联系的世界里,WhatsApp 号码成为编织我们数字挂毯的线索!您的聊天讲述了哪些故事?有没有想过 WhatsApp 号码是打开大量对话的秘密钥匙?解锁这些消息可以带来一些真正神奇的时刻!
人工智能让我们更加以人为本而不是更少以人为本
第二个问题可以用两种方式来解释:用人工意见来源取代参与者或将分析师排除在分析过程之外。 在我看来,更换参与者是个糟糕的想法。演讲中贯穿的一个主题是,在不断变化的世界中,对真实性和同理心的需求日益增加。当我们试图通过代理来理解他人时,我们如何才能对他人更有同理心?我认为,将分析师从分析流程中剔除是一种误解。人工智能不是要取代人类,而是要让分析师变得更有人性化。
根据我的经验
当分析师处理大量数据时,他们会面临两个挑战。首先,人们在信息过载时很容易犯错。其次,由于噪音太多,他们可能会错过重要的信号。这些挑战会导致错误和错过改变战略的见解。当人工智能被视为一种工具而不是替代品时,我们可以开始分析给定工作流程中的各个步骤,并看看人工智能可以在哪些方面赋能工人。例如,人工智能在识别大量信息中隐藏的模式方面尤其有效。这种发现模式的能力使人工智能成为组织数据、识别和丢弃噪音并由此产生洞察力的绝佳选择。
人类无需进行这类筛选工作
因此他们能够以完好无损的思维带宽查 创建网站的职权范围 看精炼数据。因此,人类并没有脱离流程,而是获得了更多(而非更少)的思维工具,让他们能够进行思考,而这种思考方式正是他们与最聪明的人工智能系统之间的区别所在。我如何确保我的数据不会被泄露?
负责任地部署人工智能
第三个问题是关于在组织自身环境中使用人工 AOB 目录 智能。会议期间提出的一个主要问题是,如果数据泄露,可能会被用来模仿原创作品——恶意行为者可以创建看似真实的虚假信息。 对于那些努力保持信息传递符合其宗旨的公司来说,这尤其令人担忧。他们最不希望看到的是,他们的沟通被劫持,用来讲述一个误导消费者的故事,暴露他们的竞争策略,最终损害品牌。
从机构的角度来看
数据泄露的担忧与他们保护客户所信任的数据的能力有关。 在这两种情况下,令我感到惊讶的是,我参加的所有演讲都没有讨论可以在组织自己的技术环境或防火墙内实施的 OpenAI 替代方案的可用性。 例如,在本文发表时,两个 GPT 竞争大型语言模型——Llama 2 和 Falcon——可以在组织的防火墙内使用,就像当今所有其他包含敏感信息的系统一样。
了解人们对人工智能的需求
作为一家专注于人工智能工程的公司的创始人兼首席执行官,我发现这次会议很有启发性。这类活动将生态系统不同方面的专家聚集在一起,最终帮助我们这些从事人工智能工作的人了解人们真正想要从人工智能中得到什么。