首页
人工智能
医药健康
信息技术
知识管理
其他杂项
关于
望月砂博客
水至清则无鱼,人至贱则无敌
累计撰写
44
篇文章
累计创建
51
个标签
累计收到
1
条评论
栏目
首页
人工智能
医药健康
信息技术
知识管理
其他杂项
关于
目 录
CONTENT
最新文章
2024-02-16
AI美女-时装秀-20240216
Prompt: girlvn01,1girl,smile,Stunningly Beautiful Girl,Haute_Couture,designer dress,wearing Haute_Couture,posing for a picture,fashion show,Long shape
2024-02-16
140
0
0
其他杂项
2024-02-16
全球人工智能治理评估指数显示我国位列第一梯队
图为首批次14个国家的AGILE指数。(中国科学院自动化研究所人工智能伦理与治理研究中心供图) 记者从中国科学院自动化研究所人工智能伦理与治理研究中心获悉,该中心与远期人工智能研究中心联合发起制定的AGILE全球人工智能治理评估指数于近日发布。该指数对首批14个国家开展的评估显示,我国位列第一梯
2024-02-16
53
0
1
人工智能
2024-02-15
AI美女-午夜酒吧-20240215
Prompt Canon RF85mm f/1.2,masterpiece,best quality,ultra highres,1 girl,solo,slender face,sweet,shyness,white_shiny_skin,black eyes,necklace,brown_lon
2024-02-15
125
0
0
其他杂项
2024-02-15
ChatGpt之父奥特曼:AI将像手机那样改变世界
2月14日消息,据外媒报道,当地时间周二,人工智能初创公司OpenAI首席执行官山姆·奥特曼(SamAltman),通过视频会议参加了在迪拜举行的世界政府峰会(WGS),并发表了演讲。他称人工智能将“像手机一样”改变世界,OpenAI将开源更多大模型,ChatGPT5将变得更加智能,同时呼吁将阿联酋
2024-02-15
76
0
0
人工智能
2024-02-15
Sam Altman欲募资7万亿美元占领算力至高点
Sam Altman,OpenAI的首席执行官,正试图通过筹集高达5万亿至7万亿美元的资金,来重塑全球半导体产业。这一计划的目标是提高全球芯片制造能力,从而更好地推动OpenAI在人工智能方面的发展。据知情人士透露,该项目可能需要筹集多达5万亿至7万亿美元的资金,这一数额甚至令全球半导体产业规模相形
2024-02-15
85
0
0
人工智能
2024-02-14
Ubuntu卸载并重新安装cuda
卸载 sudo apt-get --purge -y remove 'cuda*' sudo apt-get --purge -y remove 'nvidia*' sudo apt-get autoremove sudo apt-get autoclean sudo rm -rf /usr
2024-02-14
57
0
0
信息技术
2024-02-14
pip如何指定源进行安装?
引言 当我们使用Python开发项目时,通常会使用pip命令行工具来安装、升级、卸载Python包。而pip默认使用官方仓库(pypi)进行包的下载与安装。然而,由于网络环境的限制,访问国外源会非常慢,有时候甚至无法访问,这时候我们需要指定其他源来进行安装。 pip安装指定源的基本用法 在使用pip
2024-02-14
57
0
0
信息技术
2024-02-04
AI大模型的古诗翻译测试
概述 对古诗的翻译非常考验大语言模型的文字理解能力。尤其有一些缩略,一词多义,倒装,古今异义的情况。下面我们测试几个国内外大模型的翻译能力。 我最喜欢测试翻译引擎的诗句是: 松下问童子,言师采药去。 之前谷歌翻译就会将松下翻译成:Panasonic 。 今天我们用这句诗测试几大AI模型,看看他们的语
2024-02-04
90
0
0
人工智能
2024-02-01
“鲁棒”怎么解释,出处是哪里
在GLM4的发布会上看到张钹原始的PPT,提到LLM不鲁棒,不知道鲁棒是什么意思,所以特地跑去问了chatglm “鲁棒”(Robust)一词在工程学、计算机科学等领域中经常被用来描述一个系统、模型或算法对异常情况或不确定性的抵抗能力。具体来说,一个鲁棒的系统即使在面对非预期或不良的输入时,也能保持
2024-02-01
48
0
0
人工智能
2024-02-01
GPT4训练,需要多少数据量,需要多少GPU
关于GPT-4模型的训练,有一些相关的报道和信息: 1 训练成本和GPU使用 OpenAI在GPT-4的训练中使用了大约2.15e25的浮点运算(FLOPS),使用了约25,000个A100 GPU,训练过程持续了90到100天。这种极低的利用率部分是由于大量的故障导致需要重新启动检查点 信息来源:
2024-02-01
123
0
0
人工智能
1
2
3
4
5