DeepSeek加持,北大通院几何模型达IMO金牌水平!32个CPU核心和1块4090就能实现满血解题
阅1转0刚刚赶紧放弃强化学习?!Meta 首席 AI 科学家杨立昆喊话:当前推理方式会“作弊”,卷大模型没有意义!
阅4转0刚刚翁荔离职OpenAI后第一个动作:万字长文探讨RLHF的漏洞,网友们抢着传看
阅3转0刚刚强化学习之父Sutton最新万字采访:炮轰深度学习只是瞬时学习,持续学习才是智能突破的关键
阅5转0刚刚AI必读经典:苦涩的教训 |5Y View
阅6转0刚刚陶哲轩力荐,哈佛反向学习法火了:教会AI就是教会自己
阅2转0刚刚爆!解决几乎所有机器学习问题!kaggle亲自撰写
阅55转0刚刚422页新书《构建实用的全栈机器学习指南》
阅9转1刚刚LoRA(Low-Rank Adaptation)详解
阅114转1刚刚外刊精读|《经济学人》到底AI是如何思考的?
转自 mrjiangkai刚刚视觉语言模型导论:这篇论文能成为你进军VLM的第一步
阅23转0刚刚DeepMind深度学习最佳实践与新技术展望,181页PPT全景展示最近深度学习技术
转自 快读书馆刚刚大模型所谓的参数是什么?大模型为什么需要训练?大模型训练到底干了什么?
阅60转0刚刚今日arXiv最热NLP大模型论文:揭露大语言模型短板,北京大学提出事件推理测试基准
阅22转1刚刚太全了!多模态深度学习的综述!
阅2转0刚刚OpenAI最强竞品训练AI拆解LLM黑箱,意外窥见大模型「灵魂」
转自 天承办公室刚刚普林斯顿DeepMind用数学证明:LLM不是随机鹦鹉!「规模越大能力越强」有理论根据
阅4转0刚刚微软开放NewBing!但它还不是ChatGPT增强版!
转自 天选小丑刚刚让GPT大获成功的in-context learning,其实就是梯度下降?
转自 520jefferson刚刚图解72个机器学习知识点
阅4转0刚刚
-
设计心理学2:与复杂共处
加载中...