fly51fly / aicoco

“爱可可-爱生活”微博内容精选
496 stars 62 forks source link

爱可可微博热门分享(2.14) #74

Open fly51fly opened 3 months ago

fly51fly commented 3 months ago

No 1. 如果一个人的领域知识广度足以覆盖整个行业,而深度恰好多于「能够评价任务执行的好坏与否」的程度,就可以比较好地操纵 AI 去完成那些本来需要好几个不同职责的人去完成的事情 No 2. Aya:Aya模型是一个513M参数的多语种语言模型,能理解和遵循101种语言的指令;Aya数据集是迄今为止最全面的多语种指令微调数据集,包含114种语言的5.13亿个提示和补全,完全开源;Aya为自然语言理解、摘要和翻译任务中的未服务语言提供了基础 No 3. babelfish by sync.:在不到15分钟内部署一个应用,利用AI将任意视频完美翻译成任意语言并实现唇语同步 No 4. [CV] 3D Gaussian as a New Vision Era: A Survey 介绍了3D Gaussian Splatting(3D-GS)作为计算机图形学领域的重要技术进展,提供了显式场景表示和新视角合成的方法,而无需依赖神经网络等。3D-GS已在机器人、城市地图、自主导航和虚拟现实/增强现实等领域找到了广泛应用。本 ...... No 5. (开源硬件)平衡立方体,可以在一个顶点上保持平衡并旋转 No 6. Chat With RTX:NVIDIA的本地聊天机器人项目 No 7. 从专业角度对ChatGPT的评价 No 8. 晚安~ [月亮] ​ No 9. Stability AI发布图像生成模型Stable Cascade No 10. notesGPT:用语音记笔记的应用,能在几秒内从笔记生成行动项,基于Convex, Together.ai 和 Whisper No 11. Stable Diffusion Prompt Reader:独立的简易AI图片prompt查看器,用于在不依赖webui的情况下提取由Stable Diffusion生成图片内包含的prompt No 12. 免费书稿:《Bandit凸优化》深入探讨了Bandit凸优化问题,结合了在线学习和凸优化的领域,学习器在一系列交互中选择动作以最小化累积损失 No 13. 众包方式收集高质量LLM提示&数据 No 14. 稀疏自编码器特征可视化 No 15. 推理、可解释性与LLM No 16. OpenAI为ChatGPT和GPTs增加记忆能力 No 17. 今日推介(第1315期):模型坍缩解密、基于条件统计的多LLM推理、生成式AI Agent之间的隐秘串通、自我完善通用计算机Agent探索、细粒度混合专家系统缩放律 ...... No 18. 对大型语言模型进行监督微调(SFT)的Demo,重点是微调以实现短式指令遵循能力 No 19. [LG]《Scaling Laws for Fine-Grained Mixture of Experts》 No 20. Whishper:开源100%本地的音频转录和字幕套件,具有完整的网页用户界面,可以将任何媒体(音频、视频等)转录成文本,支持从URL转录和上传文件转录 No 21. [CL] Large Language Models: A Survey 大型语言模型(LLM)因其在各种自然语言任务上的强大性能而受到关注。LLM通过在大量文本数据上训练数十亿参数的模型来获得通用的语言理解和生成能力。本文回顾了一些最著名的LLM,包括GPT、LLaMA和PaLM,讨论了它们的特点、贡献和限制。 ...... No 22. CostEstimator for OpenAI ... No 23. 几篇论文实现代码 No 24. [LG] A Survey on Transformer Compression 关于Transformer压缩的综述,Transformer模型在自然语言处理和计算机视觉等领域中起着重要作用。由于Transformer的独特架构,需要特定的压缩方法。文章对最近的压缩方法进行了全面的回顾,包括剪枝、量化、知识蒸馏和高效架构设计 ...... No 25. AutoRAG:RAG工作流自动化优化工具 No 26. 是时候承认基因不是生命蓝图了 No 27. DataDreamer:一个强大的开源Python库,用于提示、合成数据生成和训练工作流,旨在简单、高效,且适用于研究。使用DataDreamer,可以轻松创建和运行多步骤的提示工作流,生成合成数据集,对模型进行训练 No 28. ALog:适配IOS的语音转录日记App No 29. 分析了混合专家模型的缩放律,引入了新的超参数粒度,通过优化专家大小和训练配置,提升了语言模型的效率,并发现与稠密Transformer模型相比,在大部分情况下混合专家模型更加高效。//[LG]《Scaling Laws for Fine-Grained Mixture of Experts》 No 30. LLM的高效线性模型融合 No 31. 2023年最值得关注的顶级Python库 No 32. [LG] ChemLLM: A Chemical Large Language Model 网页链接 ChemLLM是一个专为化学设计的大型语言模型,通过使用基于模板的指令构建方法,克服了将结构化化学数据纳入对话系统的挑战。ChemLLM在化学中的名称转换、分子标题和反应预测任务中表现优于GPT-3.5和GPT-4。还展示了在化学领域 ...... No 33. [LG]《OS-Copilot: Towards Generalist Computer Agents with Self-Improvement》 No 34. 早![太阳] ​ No 35. 'tt-zhipin - 头头直聘,仿Boss直聘实现。SpringCloud Alibaba 构建后端,React ...... No 36. TheProfessor-155b:一个特殊的大型... No 37. 2024 AI就业市场趋势 No 38. Web2pdf:一个命令行工具,用于将网页转换成精美格式的PDF文件,具有批量转换、自定义样式、多列支持、页码添加、目录生成等功能,还支持自定义CSS以进一步定制PDF外观,可以帮助用户轻松地将多个网页转换为PDF文件,并在格式和样式上进行灵活的调整 No 39. [LG] Arrows of Time for Large Language Models 通过时间方向性的角度研究自回归大型语言模型的概率建模。在实证上发现这些模型在建模自然语言的能力上存在时间上的不对称性:在预测下一token和预测前一token时,平均对数困惑度存在差异。这种差异在各种模态(语言、模型大小 ...... No 40. [RO] PIVOT: Iterative Visual Prompting Elicits Actionable ...... No 41. [CL] A Benchmark for Learning to Translate a New Language from ...... No 42. BoCoEL:基于贝叶斯优化的覆盖工具,用于评估大型语言模型,通过选择语料库的有意义(且较小)子集 来实现高度准确的评估,步骤包括将条目编码为嵌入、使用贝叶斯优化选择查询、从语料库中检索以及利用提供的管理实用程序管理生成的评估,支持多个语言模型,并具有模块化设计 No 43. Hugging Face上的水印与Deepfake检测专题 No 44. [CL]《In-Context Principle Learning from Mistakes》 No 45. SocraSynth是一个多LLM Agent推理平台,通过条件统计和连续论证来增强上下文,并通过可调节的辩论争议水平,解决了大型语言模型在偏见、幻觉和推理能力不足方面的问题,提供了全面的评估和增强合作的功能。//[CL]《SocraSynth: Multi-LLM Reasoning with Conditional Statistics》 No 46. Minimalistic Interface for Local Language Models (LLMs) (Powered by Ollama):简约的用户界面,旨在作为Ollama模型的简单接口,可以与模型聊天、保存对话并轻松在不同模型之间切换 No 47. [CL]《Getting the most out of your tokenizer for pre-training and domain adaptation》 No 48. [LG]《Secret Collusion Among Generative AI Agents》 No 49. 介绍了OS-Copilot框架,该框架可以加速构建通用计算机Agent,在操作系统层面上进行交互,并通过自我学习和控制Excel和Powerpoint等任务来提高性能。 No 50. OpenAI API官方教程:网站问答引擎实战