-
前LPL教练爆料内幕:T1训练赛糟糕,WBG和BLG状态不容乐观!
2023英雄联盟全球总决赛即将在10月19日,也就是明天正式开打,加上入围赛突围的GAM、BDS共十六支战队将两两对决。而今年启用瑞士轮这一全新赛制的情况下,也意味着在正赛首日四支LPL队伍就将悉数登台亮相...
游戏资讯 2023-10-19 02:16:20 -
OpenAICEO:OpenAI还没有开始训练GPT-5
6月8日消息,人工智能研究公司OpenAI首席执行官萨姆·奥特曼(Sam Altman)最近在印度接受采访时承认, 该公司仍未开始训练大语言模型GPT-5。几个月前,这家由微软支持的初创公司承诺,“在一段时间内”不会训练GPT-4的继任者...
业界动态 2023-06-08 07:52:11 -
重磅官宣!华为发布全球首款:可高效支撑AI训练等业务,100%释放算力
据华为中国官方微信号6月6日消息,第31届中国国际信息通信展日前在北京国家会议中心隆重举行,会议期间,华为面向全球发布首款800GE数据中心核心交换机——CloudEngine 16800-X系列,正式开启数据中心800GE时代。图片来源:每日经济新闻 资料图华为发布全球首款算力应用的浪潮兴起再次引爆企业对于AI的大力投入,由此带来计算能力等底层技术的升级,数据中心的吞吐量将被提升到全新高度。以互联网行业为代表的大型企业,亟需网络满足大带宽、低时延、高性能等高要求。随着400GE在超大规模数据中心应用的普及,数据中心网络正朝着更高的速度发展——800GE。根据研究机构Dell'Oro Group发布的《数据中心交换机市场五年期预测报告》显示,预计2025年800GE交换端口的采用速率有望超过400GE。华为推出业界首款面向多元算力的800GE数据中心交换机CloudEngine 16800-X,X代表面向未来的无限可能,它拥有以下三大能力优势:X1超强悍性能:最多支持288个800GE端口,支撑业务十年平滑演进,提供业界最优3.5微秒跨板转发时延,网络级负载均衡实现90%高吞吐;X2超融合承载:依托超融合以太实现通用计算、高性能计算、智能计算和存储融合承载,TCO降低36%;X3超智能网络:通过业界首创网络数字地图,实现多云网络1图呈现,配置变更1秒仿真,应用网络1键导航,网络故障1步定位,打造极致运维体验。华为数据通信产品线副总裁邱月峰表示,据中国算力发展指数白皮书显示,预计2023年智能算力占比将高达70%, 以ChatGPT为代表的AI大模型参数量将增长115倍,预计2030年AI算力将增长500倍。海量数据来袭,数据中心需要超强悍性能的设备来构筑行业智算“高速公路”。本次发布的业界首款800GE数据中心核心交换机CloudEngine 16800-X系列,基于三个X能力,具备业界最高密288×800GE端口数量,可高效支撑AI训练等业务,100%释放算力。图片来源:视觉中国-VCG41N1462568496全国一体化算力算网调度平台正式发布据中国信通院消息,6月5日,由工业和信息化部主办,中国信息通信研究院等承办的“算力创新发展高峰论坛”在京顺利召开。会上,中国信通院联合中国电信共同发布我国首个实现多元异构算力调度的全国性平台——“全国一体化算力算网调度平台(1...
智能设备 2023-06-07 10:47:54 -
美军否认进行“AI无人机杀死人类操控员”测试,当事人收回言论
来源:环球网【环球网报道】事件反转?据英国《卫报》等多家外媒6月2日消息,对于此前媒体报道称“美军人工智能(AI)无人机模拟测试杀死人类操控员”,美国空军1日晚进行否认,称没有进行过这样的测试。另外,此前披露该消息的美空军人工智能测试和行动计划主管官员塔克·汉密尔顿也发声,称其“说错了”,收回相关言论...
智能设备 2023-06-03 11:36:50 -
日本:敞开训练AI不用管版权,LeCun:机器学习天堂
西风 发自 凹非寺量子位 | 公众号 QbitAI大模型狂潮下,日本政府坐不住了。直接宣布:不会对训练AI所使用的数据实施版权保护。这也就意味着,训练AI可以使用任何数据。不管是非营利还是商业目的,不论是否是复制以外的行为,只要你能搞得到,你就可以用,甚至从非法网站获得的数据也可以用。连Yann LeCun看到消息后都发文表示:日本已经成为了机器学习的天堂。确实,不少日本学术界和商界人士那是敲锣打鼓。毕竟想要在全球大模型舞台上分得一杯羹,数据本就是一大关键要素。但这引起了动漫和艺术创作者的担忧。早在四个月前,日本参议院议员、职业漫画家赤松健在YouTube上发布了一个讲用AI进行图像生成的视频,就有提到过侵权问题,以及漫画师的担忧。在那时,就有日本画友认为:希望能开发出超越“Novel AI”的AI插图服务。当然,这个AI服务的训练数据集中不能使用未经授权的转载图片。但现在,对训练AI所使用的数据集的版权限制已放开。用无视版权的方式“弯道超车”其实,日本并不是第一次在版权保护上有所松懈。日本曾经因为过于严苛的版权保护,导致版权转让极为不便,需要遵循诸多条条框框,盗版问题也很严重。之后,日本在2019年修正了版权保护制度。即便如此,这次日本被爆在训练AI方面的大尺度政策,还是令人惊讶。Technomancers.ai报道称:似乎日本认为版权问题,尤其是与动漫和其它视觉媒体相关的版权问题,阻碍了该国在人工智能技术方面的进展。作为回应,日本决定全力以赴,选择无版权的方式来保持竞争力。尽管日本目前是世界第三大经济体,但自1990年代以来,日本的经济增长一直缓慢。此时,若人工智能可以得到有效发展,就有可能在短时间内将日本的GDP提高50%或者更多。对于日本来说,这是一个令人兴奋的前景。日本还试图把手伸向西方国家的数据库,这也是日本发展人工智能的关键。相较而言,日本的日语训练数据量明显少于西方可用的英语数据资源。日本拥有很受欢迎动漫等文化内容。在这点上,日本的立场似乎很明确:如果西方利用日本文化来训练AI,那么西方文化资源也应该可供日本训练AI。AI监管辩论还在继续TB级别的训练数据是维系大模型进化的一大核心要素。毕竟可用的高质量训练数据越多,AI 模型就越好。而关于大模型训练数据不透明等问题一直是大家讨论的热点。大模型的野蛮生长势必要带来人们对其安全合规的考量,侵权问题就是需要监管的问题之一。而此次日本这一举动也为监管辩论增添了转折。针对版权问题,美国版权局(USCO)在三月份也发布了新规。但并不是对版权进行保护,而是称:人工智能(AI)自动生成的作品不受版权法保护。因为,和人工参与创作的Photoshop作品不同,通过Midjourney、Stability AI、ChatGPT等平台生成的作品完全由AI自动完成,而且训练的数据是基于人类创作的作品,因此不受版权法保护。对此,你怎么看?参考链接:[1]https://technomancers...
智能设备 2023-06-03 10:08:55 -
OpenAI将用新方法来训练模型以对抗人工智能“幻觉”
①检测并减轻模型的逻辑错误或幻觉,是构建通用人工智能(AGI)的关键一步; ②这种方法被称为“过程监督”,而不是“结果监督”,它可能会提高人工智能的性能与准确性。 财联社6月1日讯(编辑 牛占林)美东时间周三,OpenAI发布的最新研究论文显示,该公司正在用一种新的方法来训练人工智能(AI)模型,以对抗人工智能“幻觉”...
智能设备 2023-06-01 10:45:29 -
英伟达并不是唯一受益者,AI训练也利好存储芯片厂商
5月30日消息,虽然存储芯片市场不景气,但人工智能有巨大的需求,这将使三星、SK海力士等公司受益。5月24日,英伟达发布财报,公司市值在两天内暴涨2070亿美元...
业界动态 2023-05-30 17:18:04 -
日本将尝试从太空传输太阳能,最早2025年进行
IT之家 5 月 29 日消息,日本和日本航空宇宙研究开发机构(JAXA)花了几十年的时间,试图实现从太空传输太阳能的可能性。2015 年,该国取得了突破,当时 JAXA 的科学家成功地将 1.8 千瓦的电力,相当于一个电水壶所需的能量,发射到 50 多米外的无线接收器上。现在,日本准备将这项技术更进一步。据日经报道,一个由日本公私合作组成的伙伴关系最早将于 2025 年尝试从太空传输太阳能。该项目由自 2009 年以来一直致力于太空太阳能的京都大学教授篠原直树领导,将试图在轨道上部署一系列小型卫星。然后,这些卫星将尝试将它们收集到的太阳能传输到数百英里外的地面接收站。使用轨道太阳能板和微波向地球发送能量的想法最早于 1968 年提出,这项技术之所以吸引人,是因为轨道太阳能板代表了一种潜在的无限可再生能源供应。在太空中,太阳能板无论白天还是黑夜都可以收集能量,而且通过使用微波来传输它们产生的电力,云层也不是一个问题。然而,即使日本成功地部署了一组轨道太阳能板,这项技术仍然比较遥远。这是因为要制造出可以产生 1 千兆瓦电力的阵列(相当于一个核反应堆的输出),按目前可用的技术来算,需要花费约 70 亿美元(IT之家备注:当前约 494...
智能设备 2023-05-29 10:15:40 -
格力手机核心团队已解散?格力电器回应称研发还在持续进行
5月19日晚,有媒体报道称,从多个独立信源证实,格力电器已解散手机核心团队。“后面应该不会再做手机了。”《每日经济新闻》记者就此消息向格力电器求证。5月19日晚10时许,格力电器(000651.SZ,股价34...
智能设备 2023-05-20 11:25:30 -
谷歌PaLM2训练所用文本数据量是初代的近5倍
5月17日消息,谷歌上周在2023年I/O开发者大会上推出最新大型语言模型PaLM 2。公司内部文件显示,自2022年起训练新模型所使用的文本数据量几乎是前一代的5倍。据悉,谷歌最新发布的PaLM 2能够执行更高级的编程、运算和创意写作任务。内部文件透露,用于训练PaLM 2的token数量有3.6万亿个。所谓的token就是字符串,人们会将训练模型所用文本中的句子、段落进行切分,其中的每个字符串通常被称为token。这是训练大型语言模型的重要组成部分,能教会模型预测序列中接下来会出现哪个单词。谷歌于2022年发布的上一代大型语言模型PaLM在训练中使用了7800亿个token。尽管谷歌一直热衷于展示其在人工智能技术领域的实力,说明如何将人工智能嵌入到搜索引擎、电子邮件、文字处理和电子表格中,但一直不愿公布训练数据的规模或其他细节。微软支持的OpenAI也对最新发布的GPT-4大型语言模型细节保密。两家公司都表示,不披露这些信息的原因是人工智能行业存在激烈竞争。谷歌和OpenAI都想要吸引那些希望使用聊天机器人而不是传统搜索引擎搜索信息的用户。但随着人工智能领域竞争的白热化,研究界要求提高透明度。自推出PaLM 2以来,谷歌一直表示,新模型比之前的大型语言模型更小,这意味着该公司技术在完成更复杂任务时能变得更高效。参数(parameters)通常用于说明语言模型的复杂性。根据内部文件,PaLM 2接受了3400亿个参数的训练,初代的PaLM接受了5400亿个参数的训练。谷歌没有立即发表评论。谷歌在一篇关于PaLM 2的博客文章中表示,新模型使用了一种名为“计算最优缩放”(compute-optimal scaling)的“新技术”,能使得PaLM 2“更高效,整体性能更好,比如推理更快、服务参数更少,服务成本也更低。”在发布PaLM 2时,谷歌透露新模型接受了100种语言的训练,并能胜任各种各样的任务。包括谷歌试验性聊天机器人Bard在内的25项功能和产品用的都是PaLM 2。PaLM 2按参数规模有四个不同的版本,从小到大依次是Gecko(壁虎)、Otter(水獭)、Bison(野牛)和Unicorn(独角兽)。根据谷歌公开披露的信息,PaLM 2比任何现有模型都更强大。Facebook在今年2月份宣布推出名为LLaMA的大型语言模型,其在训练中用了1...
业界动态 2023-05-17 13:33:30 -
OpenAI确认通过API收集的数据不会用于训练ChatGPT
IT之家5月6日消息,OpenAI首席执行官萨姆・奥尔特曼(SamAltman)向CNBC确认,该公司不再使用API客户数据来训练其大型语言模型。OpenAI于今年3月初更新其服务条款,只是并未作出公告...
智能设备 2023-05-07 12:43:12 -
用API接入更安全,OpenAI称不会用付费客户数据训练AI
5月6日消息,OpenAI首席执行官萨姆·奥尔特曼(SamAltman)周五表示,他们“已经有一段时间”没有使用付费客户的数据来训练其GPT等人工智能大语言模型。奥尔特曼表示,“客户明确表示不希望用他们的数据进行训练,因此我们已经改变了计划:我们不会这样做...
智能设备 2023-05-07 12:42:55