fly51fly / aicoco

“爱可可-爱生活”微博内容精选
496 stars 62 forks source link

爱可可微博热门分享(2.8) #68

Open fly51fly opened 3 months ago

fly51fly commented 3 months ago

No 1. Adam 优化器背后的数学原理 No 2. 2023最佳科学插图集锦 No 3. EfficientML.ai:MIT 6.5940... No 4. 'XCrawler - 轻量型A股爬虫项目' GitHub: github.com/Stock-Fund/XCrawler ...... No 5. Ego-Exo4D:研究视频学习和多模态感知的基础数据集 No 6. 2023年最值得关注的顶级Python库 No 7. MetaVoice-1B:12亿参数的基础模型,经过100,000小时的语音训练,用于文本转语音(TTS)任务。其主要优先事项包括:在英语中传达情感色彩丰富的语音节奏和语调,避免幻觉;支持(跨语言)语音克隆并可进行微调;针对美国和英国的语音进行零样本克隆,只需30秒的参考音频;支持长篇合成 No 8. AI for Inquiry:问题改善工具,以LLM为驱动的“思考工具”,旨在提升用户提出的问题的质量和深度,利用一种新的推理算法,集成了多样的专家人格和基于图的推理节奏,系统地完善问题,使其更具洞察力、发人深省,并适合在各个领域进行深入探索,例如学术研究、商业战略或个人探究 No 9. GitButler:基于Git支持的版本控制客户端... No 10. Web2pdf:一个命令行工具,用于将网页转换成精美格式的PDF文件,具有批量转换、自定义样式、多列支持、页码添加、目录生成等功能,还支持自定义CSS以进一步定制PDF外观,可以帮助用户轻松地将多个网页转换为PDF文件,并在格式和样式上进行灵活的调整 No 11. Super JSON Mode: 一个 Python 框架,通过将目标模式分解为原子组件,然后并行生成来实现高效的从 LLM(大型语言模型)生成结构化输出的工具 No 12. 是时候承认基因不是生命蓝图了 No 13. CharacterGLM:旨在实现千人千面的社交对象可定制化的大型语言模型,基于ChatGLM,可以用来定制虚拟对话AI角色,以实现一致性、人性化和引人入胜的对话。这些AI角色可以展现出一致的属性和行为,增强可信度和信任感,同时也能够提供拟人化的交互体验 No 14. 晚安~ [月亮] ​ No 15. Redis作者antirez关于LLM的分享 No 16. 早![太阳] ​ No 17. 热门GPTs开发者榜单 No 18. [CL] LitLLM: A Toolkit for Scientific Literature Review LitLLM是一种用于科学文献综述的工具包,通过使用大型语言模型(LLM)进行检索增强生成(RAG)原则、专门的提示和指令技术来解决现有工具的局限性。该系统首先通过总结用户提供的摘要生成关键词,从而启动网页搜索以检 ...... No 19. 有关SQL教学的笔记和工作示例,适合教师进行课堂教学,不适合完全没有SQL经验的初学者学习 No 20. 免费书稿:随机偏微分方程导论(I) No 21. OpenAI现在可以创建仅限于指定API端的API密钥,实现精细化权限设定和更好的安全性 No 22. curses:面向OBS, VRChat, Twitch chat和Discord的语音转文本字幕(STT)工具,主要特点包括对OBS字幕的自定义(颜色、字体、阴影、背景纹理、文本输入动画、声音效果、粒子效果和CSS)、本地OBS流字幕、Google字体、以及多种语音转文本和文本转语音的服务提供商 No 23. [CL] Beyond Lines and Circles: Unveiling the Geometric Reasoning ...... No 24. 基于MBG-v1.4和Transformers.js的本地化抠图 No 25. [LG]《Learning a Decision Tree Algorithm with Transformers》 No 26. INFO9023《机器学习系统设计》课程资料 No 27. Open Creator:开源LLM工具,用于从对话中提取可重复的任务,并将它们保存到一个定制的技能库中以供检索 No 28. B站:http://t.cn/A6Yzq5Bo No 29. Galileo A:简单快速的AI用户界面生成平台,面向设计师和开发者,可将文本提示转换为用户界面(UI)设计,旨在增强而非取代设计师的创造力和生产力 No 30. Lag-Llama: 用于时间序列预测的开源基础模型 No 31. 今日推介(第1309期):用Transformer学习决策树算法、大语言模型下游任务性能的缩放律、扩散世界模型、大型语言模型自组合推理结构、点积注意力可解模型中位置学习和语义学习的相变 ...... No 32. 检索增强生成(RAG)实战指南 No 33. Aivis:能生成高音质、富有情感语音的工具,用于创建、训练和推断Bert-VITS2模型的数据集 No 34. 几篇论文实现代码 No 35. 提出MetaTree方法,通过训练Transformer模型生成具有强大泛化能力的决策树分类器,解决了传统决策树方法的局部优化和泛化能力不足的问题。//[LG]《Learning a Decision Tree Algorithm with Transformers》 No 36. Qwen1.5发布,6 种模型规模:0.5B、1.8B、4B、7B、14B 和 72B,所有模型均支持 32768 tokens 的上下文长度 No 37. [LG] Can Mamba Learn How to Learn? A Comparative Study on In-Context ...... No 38. 独立开发者大列表 No 39. 提出Diffusion World Model(DWM),一种能在单次前向传播中预测多步未来状态和奖励的条件扩散模型,通过消除递归查询的需要,提供了长时间预测的能力,在离线强化学习中表现出显著的性能优势。//[LG]《Diffusion World Model》 No 40. TT-Buda:一个软件栈,可以从多个不同的框架(如PyTorch和TensorFlow)中编译AI/ML模型,并在Tenstorrent硬件上以多种不同的方式执行 No 41. Gaia:以C++编写的物理仿真代码库,旨在提供高效且灵活的仿真解决方案,支持独立运行或作为第三方模块集成到其他应用中。它包含了一系列实用工具,如高效的三角/四面体网格数据结构、便捷的参数输入输出模块、碰撞检测器以及可扩展的虚拟物理框架,以支持各种求解器 No 42. 机器能像小孩那样学习语言吗? No 43. [LG] HarmBench: A Standardized Evaluation Framework for Automated ...... No 44. [LG]《Self-Discover: Large Language Models Self-Compose Reasoning Structures》 No 45. [LG] Provably learning a multi-head attention layer 网页链接 介绍了对多头注意力层进行可证明学习的研究,给出了该问题的上下界。作者选择了布尔型输入以模拟大型语言模型中的离散特性,但算法本质上适用于标准的连续设置。与现有的可证明学习前馈网络算法不同,该算法主要依赖于 ...... No 46. chat_templates:大型语言模型(LLM)的chat模板,用于支持transformers的chat_template功能,旨在为不同模型提供一致的输入格式,提供了多个流行模型的示例模板 No 47. Dep Tree:用于帮助开发人员保持其代码库清晰... No 48. 研究了迁移学习下大型语言模型的扩展行为,发现预训练数据和微调数据集之间的分布对齐对下游性能有重要影响,并提出了预测下游BLEU分数的对数规律和微调数据集大小与下游交叉熵之间的幂律规律。//[CL]《Scaling Laws for Downstream Task Performance of Large Language Models》 No 49. CatVision:开源多模态大模型,紧密模拟了GPT4V/Qwen-VL-PLUS系列模型的功能,建立在Qwen-72b-Chat的基础上,可以处理包含交错的图文输入,从Qwen72b的优势中受益,旨在有效地遵循输出格式指令 No 50. REAL Video Enhancer:视频质量提升工具