真正的人工智能在网络运营的风险

使用生成人工智能技术为网络运营问题可以产生结果,听起来可信但实际上是完全错误的。

  • 在Facebook上分享
  • 在Twitter上分享
  • 分享在LinkedIn
  • 在Reddit分享
  • 通过电子邮件分享
  • 印刷资源
机器人和人类接触在虚拟网络的电路和二进制代码。
ipopba /盖蒂图片社

好的,你用来担心核战争,流行病,然后也许小行星撞击地球或太阳新星。现在,一些想要你加入AI的事情担心,是的,你应该这样做。我暂缓担心AI会生活在地球上,但是用户自己告诉我,人工智能也存在一些风险,特别是当前的超级“生成人工智能”ChatGPT推广。这尤其适用于那些想把它应用到网络运营。

我输入从197年高级IT和网络专业人士在上个月,和没有人相信人工智能可能导致人类的灭绝。超过半数的人说他们没有看到任何严重的长期负面影响人工智能的使用,和他们说,他们的公司使用人工智能”的地方。“三十四提供真正的洞察AI在网络操作的使用,我认为这组给我们提供了最好的看人工智能网络任务。

AI现在最热门的部分是由ChatGPT生成人工智能技术推广。没有报告的197家企业使用这种操作自动化,但57表示,他们会考虑它的使命和很快放弃了这个想法,原因有两个。首先,实际的错误被发现的结果,有时严重到造成结果已经采取了一个严重问题。第二,他们发现它是几乎不可能了解人工智能达到结论,使验证之前很难。

突出显示的准确性问题最近的文章在法律费。研究员ChatGPT用来研究自己,完成了一系列令人印象深刻的论文他和会议报告他。问题是,这些引用是完全错误的;他是从未做过的事。企业IT专业人员进行了相同的操作问题上表示他们经常治疗高度完美可信的结果,实际上是完全错误的。

人尝试生成人工智能技术对自己的历史网络数据表示,它提出了一个配置更改,它,就会打破整个网络。“结果是错误的四分之一的时间,并且非常错误也许八分之一的时间,“业务经理说。“我不能按照这样的准确性。”他还说,花了更多的时间来测试结果比采取他的员工做自己的专业相同的数据分析和采取行动的结果。

引发了我的第二个观点关于缺乏具体说明人工智能达成结论。我已经生成人工智能给我错误的答案,我承认,因为他们是不合逻辑的,但假设你没有一个基准测试结果吗?如果你理解如何达成的结论是,你会有机会挑选一个问题。用户告诉我,这将是重要的如果他们考虑生成人工智能一个有用的工具。我也不,他们不认为当前生成人工智能状态的艺术。

其他的,non-generative, AI模型?有超过两打操作工具包声称AI或AI /毫升的能力。用户更积极的在这些,很大程度上是因为他们有一个有限的范围的行动和决策步骤,留下了一条可以快速检查。甚至一个扫描的结果决定就够了,据一些用户,挑出有问题的结果,避免代理。不过,即使这些工具为用户存在的问题,最大的问题是我们可以称之为“态势感知的损失。”

您的网络或IT运营中心配备专业人士应对问题。大多数人工智能操作工具不使用自动采取行动;相反,他们用于诊断问题,然后付诸行动。在大多数情况下,这个过滤的事件的影响,操作人员必须处理,和,其实这事件/故障相关性和根本原因分析也。卸载不必要的工作从运维专业人员是一件好事,在某种程度上。达到这一点,当员工“失去了图片”发生的事情说明发生了什么,不能为了知道要做什么和什么时候。朝着AI是朝着更自动化、和一个更大的风险,员工从太多的庇护,所以失去了联系网络。

好的,你在想,这一切都是坏消息AI-driven操作。的,但是有两个好的对位。

首先,没有一个用户问题与人工智能完全放弃它。他们甚至可以看到好不好,他们努力帮助,良好的文风。其次,大多数报告的问题是人工智能的结果相当于误解,往往人为错误的结果设计是所谓的“推理引擎,”一个软件工具的中心大多数人工智能实现使用规则和知识库进行扣除。工具的开发人员听到这些故事和努力改正。

你如何,作为一个未来的人工智能操作的用户工具,充分利用人工智能吗?我聊天的用户有一些技巧。

寻找包含人工智能任务的操作

更广泛的人工智能任务越难在需要时移交给运营专业人士的支持,越难验证评估一个AI工具提供了或要采取的步骤。部分网络几乎肯定可以借助人工智能管理,但与当前状态的艺术,管理可能会被证明非常具有挑战性。此外,缩小任务可以使“闭环”系统的使用,而不是建议采取行动。近80%的用户采用闭环技术有限的任务。

尽量选择人工智能包已经在市场上至少9到12个月

这是足够的时间早,最严重的问题出来,得到固定。如果你绝对不能做,然后做一个内部试验六个月,你并行AI过程与传统的操作工具和两个互相检查。大多数用户甚至建议试用期为包long-installed历史,因为它有助于使您的组织熟悉人工智能的方式将会改变行动实践,减少态势感知的问题。

非常有条理和供应商在评估人工智能工具

用户满意度与人工智能工具从超过90%到15%不等,和一些用户的最喜欢的工具是最严重的标志。很明显,人工智能的功能各不相同的任务,并获得两个对齐将仔细评估。你不能简单地把建议,即使他们似乎从另一个用户也有类似的要求。

不相信AI极端主义

这最后一点很简单。人工智能所做的无非是应用人工流程没有人类,我们的教学过程。人工智能不“知道”,不“想”和“不在乎。“躲避AI错误是很像躲避人类的错误。如果人类智慧是人工智能的目标,那么人工智能的风险就像人类的风险。我们最大的风险与人工智能不太强大。我们相信我们是艾比和未能应用控制,适用于人工流程。所以,如果你想抵挡文明的终结,保持躲避那些小行星暴跌(让你看!),穿很多防晒霜,也许买pandemic-proof泡沫。什么对你最可能会不会是人工智能。

版权©2023 IDG通信公司。足球竞彩网下载

企业网络2022的10个最强大的公司