AIGC宇宙 AIGC宇宙

哈佛大学开源 AI 训练数据集“Institutional Books 1.0”,涵盖馆藏 98.3 万本图书

哈佛大学法学院图书馆开源首个AI训练数据集“Institutional Books 1.0”,涵盖98.3万本图书、2420亿Token,支持245种语言。40%为英语,60%为其他语言,书籍主要来自19-20世纪。未来还将加入数百万份历史报纸数字化内容。#AI训练# #开源数据#

在微软与 OpenAI 的支持下,哈佛大学法学院图书馆于上周正式开源其首个 AI 训练用开放数据集“Institutional Books 1.0”。该数据集据称收录了哈佛大学馆藏中 98.3 万本图书,涵盖 245 种语言,共包含 2420 亿个 Token,AI在线附项目地址(https://huggingface.co/datasets/institutional/institutional-books-1.0)。

哈佛大学开源 AI 训练数据集“Institutional Books 1.0”,涵盖馆藏 98.3 万本图书

据介绍,相应数据集收录的书籍有 40% 为英语,书籍主要出版年代集中于 19 与 20 世纪,共计被划分为 20 项主题,除此之外,相应数据集还提供了每本书的完整元数据,涉及“作者、出版年份、语言、原始来源”等信息

哈佛大学法学院图书馆表示,未来研究人员还将持续扩充数据内容,目前相应项目组成员已与波士顿公共图书馆展开合作,将把“数百万份”历史报纸以数字化形式添加至上述数据集中。

后续,哈佛大学法学院图书馆还计划开发一系列 AI 工具,以提升馆藏资料整理和开放的效率,推动“负责任的数据使用规范”。

相关资讯

OpenAI低调更新GPT4o模型,多项能力反超DeepSeek

近日,OpenAI 对其 ChatGPT 的 GPT4o 模型进行了更新,这一消息由 OpenAI 的首席执行官 Sam Altman 在社交平台 X 上透露。 Altman 表示,此次更新是在上个周末进行的,旨在进一步提升用户的使用体验。 他强调,新版本的模型在使用过程中表现出色,给用户带来了更为顺畅的体验。
2/18/2025 10:18:00 AM
AI在线

IBM 强化 watsonx.ai:DeepSeek-R1蒸馏版 Llama 模型上线

IBM 近日宣布,其 AI 开发平台 watsonx.ai 现已支持 DeepSeek-R1蒸馏版的 Llama3.18B和 Llama3.370B模型。 DeepSeek 通过知识蒸馏技术,利用 R1模型生成的数据对多个 Llama和 Qwen变体进行了优化,进一步提升了模型性能。 在 watsonx.ai平台上,用户可以通过两种方式使用 DeepSeek 蒸馏模型。
2/11/2025 2:25:00 PM
AI在线

DeepSeek-R1 登顶 Hugging Face:以10000 赞力压 150 万个模型

今日凌晨,全球最大开源平台之一 Hugging Face 的首席执行官 Clement Delangue 在社交平台发文宣布,DeepSeek-R1在 Hugging Face 上获得了超过10000个赞,成为该平台近150万个模型中最受欢迎的大模型。 这一里程碑式的成就标志着 DeepSeek-R1在全球 AI 社区中的广泛认可与影响力。 DeepSeek-R1的崛起速度令人瞩目。
2/24/2025 9:30:00 AM
AI在线
testab