搜索优化
English
搜索
图片
Copilot
视频
地图
资讯
购物
更多
航班
旅游
酒店
笔记本
Top stories
Sports
U.S.
Local
World
Science
Technology
Entertainment
Business
More
Politics
过去 24 小时
时间不限
过去 1 小时
过去 7 天
过去 30 天
按时间排序
按相关度排序
47 分钟
多活十年!OpenAI为研究长寿推出GPT-4b,联手清华大牛丁胜搞“细胞重 ...
研究合作方 Retro Biosciences ,一家成立于2022年的创业公司,专注于“抵抗细胞衰老的新药开发”,包括细胞重编程、自噬和受血浆启发的疗法。 另一位联合创始人 Joe Betts-LaCroix ,在加州理工期间首次阐明了蛋白质中电子隧道速率的控制因素,成果登上Science,Joe还 在YC担任过2.5年的兼职合伙人 (伏笔) ,指导和投资了众多生物初创公司。
来自MSN
2 小时
OpenAI CEO宣布,o3 mini将会在数周内上线
当地时间1月17日,OpenAI CEO萨姆・阿尔特曼在社交平台发文称,感谢外部安全研究人员对o3 mini模型的测试,目前该模型的最终版本已经确定,并进入发布流程,预计将在几周内正式推出。而且他还透露,o3 ...
4 小时
强强 PK 国产胜,讯飞星火 X1 碾压 DeepSeek
大模型时代的迭代速度远超以往,一家公司的领先往往只能持续数月乃至数周,稍有不慎就会被后来者超越,此次讯飞星火 X1 出道即“巅峰”也正说明了这一点。唯有不断从底层攻难克坚,真正从源头实现自主可控,才能在日益飞速技术迭代立于不败之地。
4 小时
DeepSeek新模型写代码能力与o1相当 网友:今年编程只剩Tab键
鉴于DeepSeek此前已宣布R1模型将开源,有网友表示,与OpenAI o1编程能力相当的开源模型即将发布,2025年的编程就只剩下按Tab键了。 两个月前,DeepSeek在官网上线DeepSeek-R1-Lite-Preview时曾透露: ...
5 小时
仅花2万块!加拿大男子在家实现核聚变 AI立大功
据中关村在线报道,近日加拿大男子成功实现核聚变的消息引起了科技行业的广泛关注,该男子仅花费3000美元,在家中成功组装出一个能够分裂原子并产生等离子体的聚变器。 这个过程得益于他利用Anthropic的Claude AI和OpenAI的o1 ...
来自MSN
6 小时
DeepSeek新模型霸榜,代码能力与OpenAI o1相当且确认开源,网友:今年 ...
梦晨 西风 发自 凹非寺量子位 | 公众号 QbitAI DeepSeek版o1,有消息了。 还未正式发布,已在代码基准测试LiveCodeBench霸榜前三,表现与OpenAI o1的中档推理设置相当。
7 小时
AI助力:男子用3000美元在家实现核聚变
实验的第三部分是获取一种名为氘的氢气,Hudzah通过购买儿童燃料电池汽车,提取其中的质子交换膜(PEM),并使用它将易得的氘氧化物(D2O或重水)转化为重氢。
腾讯网
8 小时
DeepSeek新模型霸榜,代码能力与OpenAI o1相当且确认开源
DeepSeek版o1,有消息了。 还未正式发布,已在代码基准测试LiveCodeBench霸榜前三,表现与OpenAI o1的中档推理设置相当。 注意了,这不是在DeepSeek官方App已经能试玩的DeepSeek-R1-Lite-Preview ...
8 小时
DeepSeek新模型崛起,代码生成能力直追OpenAI,或将改变编程格局
DeepSeek-R1-Preview的发布亮点之一是其经过强化学习训练,具备反思和验证的能力。通过在LiveCodeBench测试中的优异表现,DeepSeek团队展示了该模型在代码生成、自我修复以及测试输出预测等方面的多重优势。值得注意的是,Li ...
9 小时
7B模型数学推理击穿o1,直逼全美20%尖子生,四轮进化,微软华人新作 ...
论文中,来自微软亚研院的全华人团队,提出了全新算法rStar-Math,证明了SLM无需从高级模型蒸馏,就能在数学推理上,媲美甚至一举超越o1。 论文链接:https://arxiv.org/pdf/2501.04519 ...
10 小时
OpenAI几周内发布 o3-mini,性能略逊于 o1-pro
近日,OpenAI 的 CEO 山姆・奥特曼在社交媒体上透露,备受期待的 o3-mini 将在几周内正式发布。这一消息让众多关注人工智能发展的用户感到兴奋。o3-mini 作为大模型的蒸馏版,将同时推出 API 和网页端,进一步满足用户的需求。
知乎 on MSN
12 小时
如何评价 MiniMax 于 2025 年 1 月 15 日发布的 MiniMax-01 系列模型?
测试一下之前准备的样本,不出意外地答错了: 超长上下文和线性注意力固然好,但是现在LLM最缺乏的不是长度,而是深度(如前面的样本所示)。 OpenAI的o1路线尝试了用长度思考来弥补深度不足(多次思考,回溯等)。
一些您可能无法访问的结果已被隐去。
显示无法访问的结果
反馈