软件提供了一个界面:一种人脑与计算机之间交互的手段
欢迎关注公众号:投阅笔记
$Palantir Technologies Inc.(PLTR)$
01
我们的软件和公司就是为这一刻而生的。
更通用的人工智能系统的出现,已经开始实质性地改变和推动我们近二十年前创立的企业。
近几个月来,我们在软件平台的技术开发和获得新客户(尤其是在美国)方面的业务发展势头明显加快。
我们正在开发并即将发布新的人工智能平台(AIP),该平台将我们为工业和军事合作伙伴开发的机器学习技术与最近引起公众关注的最新大型语言模型相结合,面向商业和政府部门的客户。
只有基础数据平台才能使人工智能在这些新环境中的应用成为可能,这些平台能够实施法律和道德约束,并执行监管要求,目前这些要求对跨行业和跨国界的数据使用进行了规范。我们花了二十年的时间来建设这些平台。
关于人工智能系统与构建此类系统的社会价值观之间的一致性,或者说缺乏一致性的问题,已经进行了大量的讨论。
从一开始,我们构建软件产品的前提就是细化访问控制,即限制特定用户在什么条件下可以访问什么数据,以及限制系统本身通过信息网络访问数据的能力,这不仅对系统本身的功效至关重要,而且对其被公众采用和接受也至关重要。
然而,仅有访问控制是不够的。
我们相信,我们软件的主要功能将成为那些试图在其企业的法律法规和道德约束下实施人工智能的组织所需要的。
世界上每一家大型企业都将很快需要一个具备这些功能的系统。我们将向包括航空、制造、能源、银行、采矿、制药和汽车行业在内的各商业领域的公司,以及包括美国及其在欧洲和世界各地的盟国的主要国防和情报机构在内的政府合作伙伴发布我们的平台。
AIP 将使客户能够直接在我们现有的平台(包括 Foundry 和 Gotham)上,利用我们现有的机器学习技术,以及最新大型语言模型日益复杂的自然语言处理能力。
AIP 的第一个版本将成为继 Gotham、Foundry 和 Apollo 之后的第四个平台,目前正在开发中,并将在未来几周内,最迟于 5 月底向首批战略合作伙伴推出。
我们正在着手提前发布该平台的工作版本,目的是让 AIP 的能力(包括预期能力和新出现的能力)随着时间的推移,通过在该领域的进一步使用和完善而显现出来。
我们的平台对于允许特定领域的专有网络整合和代谢公开信息以及私有数据至关重要。
公共数据集(如互联网上的文本和信息语料库)与由政府机构和公司维护的私有信息库的结合,将把最新的大型语言模型转化为更多的东西,而不仅仅是大众着迷的对象。
公共与私有的结合,与每个领域对数据使用的特殊要求和行业具体要求保持一致,将最终释放这些新系统的全部潜力和运行价值。
02
在最基础的层面上,软件提供了一个界面,一种人脑与计算机之间交互的手段。
在将人类操作者的愿望和创造性本能转化为计算系统可以理解和掌握的方向时,总是存在一定程度的摩擦。
大型语言模型的开发和完善,以及我们现有的机器学习能力,为我们开辟了一种前所未有的与机器互动的全新方式。
这组新兴技术最终将允许数千、数十万甚至数百万用户与数据集进行交互和操作,而在此之前,大多数人都无法实现这些功能。
在大多数情况下,用户需要具备一定程度的技术熟练程度,才能对一个数据集,或者更常见的由几十个甚至上百个集成数据集组成的数据群进行有意义的迭代和查询,而这一切只需要一套基本的查询或搜索参数。
随着更通用的机器学习和自然语言处理系统的出现,现在任何人都能用普通英语,很快也能用其他语言,对集成在我们平台中的数据集提出多层次的复杂问题。
这种查询的分层性质使得用户通过普通语言提示与系统进行交互和迭代的能力变得非常有价值,它为整个组织内的所有非技术分析人员开放了数据集和数据模型,同时确保用户只能与他们有权访问的数据进行交互。
几十年来,我们一直在构建用户从单纯的研究和调查转向具体行动所需的基础系统。
我们开发的软件已经允许企业限制或扩展软件本身的功能。不久的将来,它将允许用户在公共和私人网络中,在开发和使用机器学习功能和大型语言模型之间灵活转换。
目前,我们的软件可以让个人在做出决策之前,参与并进一步查询其调查所产生结果的出处和可靠性。现在,在这些系统中增加自然语言处理功能将大大扩展其影响力和价值。
在商业和工业领域,这些技术的应用将带来变革。
例如,美国一家大型制药公司的科学家在寻找新药时,可能会向 AIP 提出以下问题:
在我们项目的候选药物中,预测哪一种对人类使用最安全?
我们是否有能力扩大生产规模,对这些药物进行临床试验?
目前,我们正在开发一种功能,让任何人通过简单的书面问题都能在几秒钟内找到答案,并通过后续查询和完善模型进一步迭代。如果系统能够自行开发查询和迭代功能,将能进一步加快进度。
然而,从这些调查中得出的结果只有在符合道德和法律规范的情况下才是有用的,才具有操作价值。只有当被查询的数据经过整合、分割和隔离,符合特定领域专用网络的监管要求(如医疗保健或情报领域的监管要求)时,才有可能符合这些要求。
03
这些新兴的人工智能能力对个人权利,甚至可能对我们自身的人身安全造成的风险是巨大的,而且对大多数人来说是显而易见的。
可能的情况是,意识或自我意识并不是人类大脑等连接网络中一组离散或特定关系的结果,而仅仅是一个足够复杂的系统的新兴属性。
换句话说,意识或其功能等同物,以及某种形式的自主性,可能必然产生于信息网络中足够复杂的程度。
显然,这些最新系统的复杂程度和复杂性只会继续增加。我们面临的挑战将是如何确保这些技术始终服从我们的集体意志。
我们必须把自己的价值观强加给我们创造的软件,否则它可能会把一套新兴的、不受约束的价值观强加给我们。我们正在构建的系统必须符合我们的指令,反映我们的哲学和道德承诺。
一些人呼吁暂停开发这些新兴技术的更强大版本,希望我们的对手能与我们一起深思这些系统的能力及其伴随的风险。
然而,暂停我们当前的努力将是沉溺于一个没有冲突的世界的幻想之中。
这些最新形式人工智能的应用已经并将继续在市场上发挥决定性作用。
其他人可以就继续开发这些技术的利弊展开辩论。
但是,我们不会在对手前进的时候原地踏步。
此致敬礼,
Alexander C. Karp
首席执行官兼联合创始人
Palantir Technologies Inc.
该文章为编译,标题为:
Our New Platform
Bending Artificial Intelligence to Our Collective Will
A Letter from the Chief Executive Officer
2023 年 4 月 7 日
免责声明:本号对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性不作任何保证或承诺,且不构成任何投资建议,对于使用该信息而引发或可能引发的损失将由投资者自行承担。投资者不应以该等信息取代其独立判断或仅根据该等信息做出决策。同时,我们尊重原创。文字图表等素材,版权属于原作者或其代理人。若涉及版权问题,敬请联系我们,立即做删除处理。
免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。
