黑洞资源笔记
72.6K subscribers
18.7K photos
872 videos
969 files
16.1K links
Download Telegram
Awesome Al for Science - 科学领域的AI资源汇总

这是一个由ai-boost维护的GitHub仓库,汇总了用于加速科学发现的AI工具、库、论文、数据集和框架,覆盖物理、化学、生物等多学科,包含20+分类资源。

重点
🔬[AI工具] 提供文献管理、数据分析、数据标注等工具,覆盖知识提取到可视化全流程
📝[论文转换] 支持论文→海报/幻灯片/图形摘要自动生成,提升科研成果展示效率
📊[图表处理] 包含理解与生成图表的工具,解决数据可视化与解读痛点
🔄[可复现性] 提供论文→代码转换工具,确保研究结果可复现与验证
📚[文献资源] 分类整理AI for Science基础论文、综述及领域应用案例
🔬[科学ML] 涵盖神经微分方程、物理信息神经网络等前沿科学计算模型
🏛[学科覆盖] 包含生物、医学、材料、天文等10+领域的AI应用资源
🧪[数据集] 提供科学研究专用数据集与基准测试资源,支持多场景验证
🤖[自主研究] 整合AI代理与自主工作流工具,实现科研任务自动化处理
📌[知识图谱] 包含从学术文献中提取知识的工具,构建科学领域知识网络
💡[教育资源] 提供AI与科学计算相关课程、教程及开放教育材料
🌐[开源社区] 支持社区贡献更新,包含20+子分类的持续扩展资源
Aayush Garg 撰写的一篇发表在huggingface博客上的技术教程,《PPO From First Principle》(从第一性原理看 PPO)。

该项目的核心目的是摒弃高级封装库(如 Stable Baselines3),完全从零开始用 PyTorch 实现 PPO(Proximal Policy Optimization,近端策略优化)算法,以帮助读者深入理解其底层数学原理和代码逻辑。

很多开发者只会调用现成的 RL 库,但不理解算法内部发生了什么。这篇文章会打破这种黑盒,通过手写每一行核心代码来揭示 PPO 的工作机制 。PPO 是目前最流行的强化学习算法之一(也是 ChatGPT 等大模型 RLHF 阶段背后的核心算法),因为它在实现简单性、样本效率和性能之间取得了很好的平衡 。
Ultimate Linux!!!:一个由 Uros Popovic 创建的一个实验性项目,该项目会构建一个用户空间(Userspace)主要由 JavaScript 编写的微型 Linux 发行版。

目标其实是帮助开发者理解“Linux 只是内核,而操作系统是由内核之上的软件定义的”。

同时也是因为作者为了回应关于系统编程语言(如 C, Go, Rust)的争论,他故意选择了一种通常被认为“不适合”系统开发的语言——JavaScript,来构建这个系统。
1🔥1
LaTeX 教程:《How to Reproduce this Book Exactly with \LaTeX》(如何用 LaTeX 精确复刻本书)

本教程不仅教会你 LaTeX 的语法,更通过展示自身的源码,教会你如何设计一本审美在线、结构清晰的数学书籍。如果你想制作一份看起来像出版物一样的数学笔记,这本书是极佳的参考。
YouTube已经成为美国家庭电视屏幕上最重要的“频道”
👍1
机器学习中的各种距离
Yuxi-Know是一个基于LightRAG(一个最近比较流行的RAG平台) 构建的RAG知识库和知识图谱平台。

这是一个功能强大的智能体平台,融合了 RAG 知识库与知识图谱技术,基于 LangGraph v1 + Vue.js + FastAPI + LightRAG 架构构建。

提供了全套的智能体开发套件,基于 MIT 开源协议,技术栈友好,适合基于此项目打造自己的智能体平台。
OpenNana提示词图库:可以搜索的一个新的nano banana pro的提示词库,收集了988个各种提示词。
3
山水画风格邮票提示词 | 帖子
2
1
@piracy9 此群组要变私密群组了,垃圾广告号太他么多了,受不了了。虽然有建bot的bot,奈何人懒不想折腾。谁想进的就进,以后还开不开放,没准儿

晚上封群
1