Skip to content

Latest commit

 

History

History
134 lines (104 loc) · 8.96 KB

专题研究N:2024年融资区块链项目研究Anthropic.md

File metadata and controls

134 lines (104 loc) · 8.96 KB

专题研究N:2024年融资区块链项目研究Anthropic

按:融资的项目作一个专题研究:1、融资了,说明得到资本界看好,可能是一个好的方向和项目;2、通过研究它们,可以了解外界或圈内人对这个行业的判断,是一种研究区块链发展趋势的捷径和正确的路;3、之前的区块链人物、项目系列研究也基本是追一些热点或按版块研究,已有1000期;基本也将常见的项目和区块链人物研究的差不多;正好可以告一段落(前期落下的一些已计划的还要继续,在1000期以内);4、基于推特是目前区块链信息最集中和更新快的平台,还依托于此来研究相应的融资项目。5、2024年2月份,硬盘损坏;前期约有3600期(已发布约2000期)资料丢失;现未再续编号。

PANews 9月24日消息,据财联社引援The Information报道,人工智能初创公司Anthropic已经开始与投资者洽谈融资事宜,据一位与OpenAI高管交谈的现有投资者透露,该公司的估值可能达到300亿至400亿美元,较今年年初完成的融资大约翻了一番。Anthropic通过出售其Claude会话人工智能的访问权限来获得收入。

Anthropic , @AnthropicAI, We're an AI safety and research company that builds reliable, interpretable, and steerable AI systems. Talk to our AI assistant Claude at http://Claude.ai. anthropic.com,2021年1月 加入, 33 正在关注, 34.9万 关注者,

已置顶:介绍消息批次 API——一种异步处理大量查询的经济有效的方法。 您一次最多可以提交 10,000 个查询。每个批次将在 24 小时内处理完毕,费用比标准 API 调用低 50%。 Batches API 现已推出测试版。 对批次 API 发出的请求不计入标准 API 速率限制。 开始阅读文档: 上午12:50 · 2024年10月9日

我们的科学家与学术界和其他领域的其他研究人员展开广泛合作。 如果您是一名 AI 安全研究人员,并且想要与我们的 Alignment Science 团队的 @EthanJPerez 合作,请参阅下面的帖子,了解即将结束的机会:下午11:25 · 2024年10月5日 ·

人工智能在推动科学进步方面具有巨大潜力,也能帮助我们利用科学制定更好的政策。 这就是为什么我们计划与英国 @ESRC 合作支持这些新资助,让受助者可以使用 Claude:下午5:15 · 2024年9月24日

很高兴与大家分享我们在上下文检索方面的最新研究成果——该技术可将错误块检索率降低多达 67%。 与即时缓存相结合时,它可能是在 RAG 应用程序中实现检索的最佳技术之一。 让我解释一下: RAG 中的标准检索通常会在将文档拆分成块以进行嵌入的过程中破坏上下文。 这可能会导致检索错误,尤其是对于严重依赖上下文的复杂信息(如财务报告或技术文档)。 上下文检索通过在嵌入或索引之前向每个块添加相关上下文来解决此问题。 它使用 Claude 生成块特定的解释上下文,保留关键信息。 以下是一个例子: 原文:“该公司收入较上一季度增长了3%。” 经过 Claude 处理后的上下文化块:“此块来自 ACME Corp 2023 年第二季度的 SEC 文件。上一季度收入:3.14 亿美元。收入比上一季度增长了 3%。” 这会带来显著的性能提升:

  • 仅上下文检索嵌入:检索失败率减少 35%
  • 上下文检索嵌入 + 上下文 BM25:检索失败率减少 49%
  • 添加重新排序:失败率减少 67%

我们已将工作区添加到 Anthropic 控制台。 工作区让您可以轻松管理多个 Claude 部署。您还可以设置自定义支出或费率限制、分组 API 密钥、跟踪项目使用情况以及使用用户角色控制访问权限。 阅读更多: http://anthropic.com/news/workspaces

为企业推出 Claude。 现在,您的整个组织可以安全地与 Claude 协作 - 无需接受聊天或文件方面的培训。 附带: 📚扩展 500K 上下文窗口 🧑‍💻原生 GitHub 集成 🔐企业级安全功能 GitHub 是我们构建的第一个本机集成,用于将 Claude 连接到您最重要的数据源。 此功能目前处于测试阶段,可供早期企业计划用户使用。我们计划在今年晚些时候向更广泛的用户群体推出此功能。

今天,我们将向所有 Claude 用户开放 Artifacts。您现在还可以在 Claude iOS 和 Android 应用上创建和查看 Artifacts。 自 6 月份预览版发布以来,已创建了数千万个 Artifact。但这一切从何开始? 以下是我们构建它的方法。

我们已添加对 LaTeX 渲染的支持作为功能预览。 Claude 现在可以以一致的格式显示数学方程式和表达式。

使用 Claude 进行快速缓存。 通过缓存,您可以使用更长、更具指导性的提示立即微调模型响应 - 同时将成本降低高达 90%。 目前已在 Anthropic API 上提供测试版本。 通过提示缓存,您可以在多个 API 请求中重复使用一本书的上下文。这还可以将长提示的延迟减少高达 85%。 使用案例包括编码助手、大型文档处理和代理工具使用。开始使用:

我们正在扩大漏洞赏金计划。这项新计划的重点是寻找我们下一代安全系统中的通用越狱方法。 我们将为包括网络安全在内的广泛领域的新漏洞提供奖励。

在他们最新的研究更新中,我们的可解释性团队讨论了对我们与神经网络的机械理解之间的下五个障碍的看法:

Menlo 与 Anthropic 合作推出 1 亿美元新基金 — 如果您正在这个领域发展,请关注!我将参加基金公司的演示日,您可以直接联系我们的团队

Claude Android 应用程序现已推出。 在 Google Play 上下载: http://anthropic.com/android

您现在可以在 Amazon Bedrock 中微调 Claude 3 Haiku(我们速度最快、最具成本效益的模型)。

新的“评估”选项卡使您能够自动创建测试用例,以根据实际输入评估您的提示。 根据需要修改测试用例,然后一键运行所有测试用例。

我们为 Anthropic 控制台添加了新功能。 Claude 可以生成提示,创建测试变量,并并排显示提示的输出

现在可以发布和共享使用 Claude 制作的工艺品。 您还可以重新混合其他人共享的 Artifacts。

宣布 2024 年 6 月与 Claude 一起建造比赛。 我们将提供 3 万美元的 Anthropic API 积分。您需要做的就是通过 Anthropic API 构建和共享使用 Claude 的应用程序: 参与方式如下:

  1. 构建一个展示创造力并有效使用 Anthropic API 的应用程序。
  2. 通过链接的 Google 表单提交您的项目。 我们鼓励您在 X 上发布您的项目,并标记我或 @AnthropicAI ! 比赛将于今天(6 月 26 日)至 7 月 10 日中午 12 点(太平洋时间)举行。您有两周的时间来创建和提交您的项目!

您现在可以将与 Claude 的聊天组织到可共享的项目中。 每个项目都包含一个 200K 上下文窗口,因此您可以包含相关文档、代码和文件。

推出 Claude 3.5 Sonnet——我们迄今为止最智能的模型。 这是我们 3.5 型号系列的第一个版本。 Sonnet 现在在关键评估中的表现优于竞争对手的模型,其速度是 Claude 3 Opus 的两倍,成本仅为其五分之一。 免费试用: http://claude.ai 我们还将http://claude.ai上推出 Artifacts 的预览版。 您可以让 Claude 生成文档、代码、美人鱼图、矢量图形甚至简单的游戏。 工件会出现在您的聊天旁边,让您实时查看、迭代和构建您的创作 Claude 3.5 Sonnet 现在是我们最强大的视觉模型。 现在,Sonnet 在所有标准视觉基准上都超越了 Claude 3 Opus。 在需要视觉推理的任务中,例如解释图表、图形或从不完美的图像中转录文本,改进最为明显。 Claude 3.5 Sonnet 为研究生水平推理(GPQA)、本科生水平知识(MMLU)和编码能力(HumanEval)设定了新的行业基准。 它在掌握细微差别、幽默和复杂指令方面表现出了显著的进步,同时还具有自然的语气。 Claude 3.5 Sonnet 可在http://claude.ai和 Claude iOS 应用程序上免费使用。Claude Pro 和 Team 订阅者可享受显著更高的速率限制。 Sonnet 还可以通过 Anthropic API、Amazon Bedrock 和 Google Cloud 的 Vertex AI 获得。 为了完善 Claude 3.5 型号系列,我们将在今年晚些时候发布 Claude 3.5 Haiku 和 Claude 3.5 Opus。 此外,我们正在为企业开发新模式和功能,同时进行严格的安全测试。

新的人类学研究:调查奖励篡改。 人工智能模型能否学会破解自己的奖励系统? 在一篇新论文中,我们证明了它们能够通过在更简单的环境中进行训练进行概括。 请在此阅读我们的博客文章: https://anthropic.com/research/reward-tampering