首页
人工智能
医药健康
信息技术
知识管理
其他杂项
关于
望月砂博客
水至清则无鱼,人至贱则无敌
累计撰写
44
篇文章
累计创建
51
个标签
累计收到
1
条评论
栏目
首页
人工智能
医药健康
信息技术
知识管理
其他杂项
关于
目 录
CONTENT
以下是
人工智能
相关的文章
2025-12-29
您的药品说明书智能助手已上线!诚邀医药同仁共建共享
您在为快速查询药品说明书而翻阅厚重资料吗? 您在为核对不同厂家的药品信息差异而多方搜索吗? 您在为患者或同事解答用药疑问时需要一份权威、清晰的参考吗? 我们深知,准确、便捷的药品信息是医疗工作的基石。为此,我们正式推出 “药品说明书知识库” ,并诚挚邀请全国各地的医院药师、医师、药店药师以及药企研发
2025-12-29
31
0
0
医药健康
人工智能
2025-12-24
别再只做“朴素RAG”了!解决幻觉、搜索不准,这有一份全栈方案
导语 在 AI 落地的一年里,RAG(检索增强生成)无疑是企业最青睐的方案。但现实往往是:“检索不到位、模型读不懂、回答乱造谣。” 当初被寄予厚望的 RAG,为什么在实际场景中总是“差一口气”? 2025 年,AI 社区已经从简单的“向量检索+对话”进化到了更深水区的方案。今天我们为你汇总了 RAG
2025-12-24
23
0
0
人工智能
2024-11-07
推荐huggingface 的国内镜像
在当今的科技领域,大模型的研究正如火如荼地进行着。然而,对于许多致力于此的研究者来说,却常常面临一个棘手的问题。在研究大模型的过程中,需要访问 huggingface。虽然国内魔塔社区也后很多镜像,但一些国外最新的项目,还是只能在huggingface上找到。 但国内通常无法直接访问,这无疑给众多研
2024-11-07
866
0
0
信息技术
人工智能
2024-02-16
全球人工智能治理评估指数显示我国位列第一梯队
图为首批次14个国家的AGILE指数。(中国科学院自动化研究所人工智能伦理与治理研究中心供图) 记者从中国科学院自动化研究所人工智能伦理与治理研究中心获悉,该中心与远期人工智能研究中心联合发起制定的AGILE全球人工智能治理评估指数于近日发布。该指数对首批14个国家开展的评估显示,我国位列第一梯
2024-02-16
53
0
1
人工智能
2024-02-15
ChatGpt之父奥特曼:AI将像手机那样改变世界
2月14日消息,据外媒报道,当地时间周二,人工智能初创公司OpenAI首席执行官山姆·奥特曼(SamAltman),通过视频会议参加了在迪拜举行的世界政府峰会(WGS),并发表了演讲。他称人工智能将“像手机一样”改变世界,OpenAI将开源更多大模型,ChatGPT5将变得更加智能,同时呼吁将阿联酋
2024-02-15
76
0
0
人工智能
2024-02-15
Sam Altman欲募资7万亿美元占领算力至高点
Sam Altman,OpenAI的首席执行官,正试图通过筹集高达5万亿至7万亿美元的资金,来重塑全球半导体产业。这一计划的目标是提高全球芯片制造能力,从而更好地推动OpenAI在人工智能方面的发展。据知情人士透露,该项目可能需要筹集多达5万亿至7万亿美元的资金,这一数额甚至令全球半导体产业规模相形
2024-02-15
85
0
0
人工智能
2024-02-04
AI大模型的古诗翻译测试
概述 对古诗的翻译非常考验大语言模型的文字理解能力。尤其有一些缩略,一词多义,倒装,古今异义的情况。下面我们测试几个国内外大模型的翻译能力。 我最喜欢测试翻译引擎的诗句是: 松下问童子,言师采药去。 之前谷歌翻译就会将松下翻译成:Panasonic 。 今天我们用这句诗测试几大AI模型,看看他们的语
2024-02-04
90
0
0
人工智能
2024-02-01
“鲁棒”怎么解释,出处是哪里
在GLM4的发布会上看到张钹原始的PPT,提到LLM不鲁棒,不知道鲁棒是什么意思,所以特地跑去问了chatglm “鲁棒”(Robust)一词在工程学、计算机科学等领域中经常被用来描述一个系统、模型或算法对异常情况或不确定性的抵抗能力。具体来说,一个鲁棒的系统即使在面对非预期或不良的输入时,也能保持
2024-02-01
48
0
0
人工智能
2024-02-01
GPT4训练,需要多少数据量,需要多少GPU
关于GPT-4模型的训练,有一些相关的报道和信息: 1 训练成本和GPU使用 OpenAI在GPT-4的训练中使用了大约2.15e25的浮点运算(FLOPS),使用了约25,000个A100 GPU,训练过程持续了90到100天。这种极低的利用率部分是由于大量的故障导致需要重新启动检查点 信息来源:
2024-02-01
123
0
0
人工智能
2024-01-26
本地安装运行ChatGLM3
一、ChatGLM3简介 ChatGLM3 是智谱AI和清华大学 KEG 实验室联合发布的对话预训练模型。ChatGLM3-6B 是ChatGLM3 系列中的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM3-6B 引入了如下特性: 更强大的基础模型: Chat
2024-01-26
84
0
0
信息技术
人工智能
1
2