手把手教程利用gemini-cli操控你的浏览器!附实用场景总结L站帖子
LINUX DO - 热门话题 (RSS)






应佬友 @Darthvader 邀请,分享一下可以通过大模型操控自己的浏览器的开源MCP项目,跟着我一步步操作吧!我个人常用场景是总结L站的帖子,试图快速理清佬友们讨论的重点hh。

一、安装mcp-chrome

github.com

GitHub - hangwin/mcp-chrome: Chrome MCP Server is a Chrome extension-based...

Chrome MCP Server is a Chrome extension-based Model Context Protocol (MCP) server that exposes your Chrome browser functionality to AI assistants like Claude, enabling complex browser automation, content analysis, and semantic search.

1、全局安装mcp-chrome-bridge...

View original post
#影视 #电影
😞 飞流视频 新兴的在线影视播放平台

亮点😝
😍高清播放体验优秀,支持多清晰度切换

😍片源丰富,涵盖电影、电视剧、动漫、综艺全品类

😍界面简洁,操作直观,新手友好

😍更新速度快,热门内容同步及时

😍适合人群:全类型影视观众,尤其是追求操作简便的用户


🥰 https://www.flixflop.com/
🗣️ 豆包Ai实战营从小白到高手速成

🏷️ #资源 #AI

👉 https://www.ahhhhfs.com/74706/
Open Lovable 是一个开源的 AI 驱动网页应用构建工具,能够将任意网站 URL 转换成一个可编辑的 React 克隆版本,极大加速 MVP 和产品验证过程。核心亮点包括:

• 基于 Groq、E2B 和 Firecrawl 的高性能技术栈,兼顾速度与智能
• 支持即时可视化编辑,直接修改 DOM 元素,代码与设计实时同步
• 通过拖拽新增、移动 div 容器,TailwindCSS 样式可视调整,Figma 风格 UI 体验
• 可从现有 GitHub 仓库或 Figma 设计导入,快速启动项目或迭代设计
• 开源且社区活跃,已在 vercel 等平台部署演示,便于开发者贡献与扩展
• 适用于快速生成产品原型、设计验证及团队协作,降低前端开发门槛

目前仍处于积极开发阶段,欢迎开发者参与改进。
deck:用 Markdown 高效驱动 Google Slides 幻灯片制作的利器
• 基于“内容与设计分离”理念,Markdown 负责内容创作,Google Slides 专注视觉呈现
• 支持持续迭代构建,实时同步修改,配合 --watch 参数实现边写边看,显著提升制作效率
• 完整支持 Google Slides API 与 Drive API,兼容个人与共享云盘,管理演示文稿更灵活
• YAML Frontmatter 灵活配置演示ID、标题、换行、代码块转图片命令等,满足多样化定制需求
• 自动识别 Markdown 结构,智能匹配幻灯片布局(标题、副标题、正文占位符),减少重复操作
• 支持 GitHub Flavored Markdown 语法,包括表格、粗体、斜体、代码、引用及内嵌 HTML 标签
• 代码块可通过自定义命令转为图片,方便展示复杂代码或图表(如 Mermaid、文本转图等)
• 页配置可嵌入 JSON 注释,实现布局、跳过、冻结、忽略等细粒度控制,提升演示灵活性
• 多账号/环境支持,profile 模式下管理多个身份,适应不同项目或组织需求
• 结合 AI agent 协作,可实现更高效的 Markdown 格式幻灯片创作,推动内容与设计的深度融合

deck 让幻灯片制作回归内容本质,兼顾灵活定制与自动化,适合研发、教学、产品等多场景的专业演示需求。
构建智能AI代理的新范式:基于MCP与OpenAI gpt-oss的实用指南

• 使用MCP打造标准化工具接口,简化AI代理与外部工具的交互,提升代理能力与扩展性。
• 结合OpenAI最新gpt-oss-120B大模型,作为强大LLM骨干,实现更精准且多功能的智能响应。
• Hugging Face轻量级客户端支持TypeScript(@huggingface/tiny-agents)和Python(huggingface_hub[mcp]),入门简便,跨语言体验无缝衔接。
• 本地浏览器代理示例:通过Playwright MCP服务器,代理可自主浏览互联网,进行信息检索与任务执行,具备实战应用价值。
• 灵活定义agent.json配置,支持自定义模型、工具、输入参数及系统提示,确保代理行为可控且高效。
• 轻松接入Hugging Face MCP服务器,访问数千AI空间,实现代理与多样AI服务的深度融合。
• 运行方式统一,Python与JavaScript客户端均支持“一行命令”快速启动,适合开发测试与生产部署。
• 设计理念强调代理需深度规划调用逻辑,反思执行结果,避免盲目调用与猜测,确保解决方案的准确性与完整性。

这套方案不仅降低了构建复杂AI代理的门槛,也为长期构建智能、多工具协同的AI系统奠定了基础。未来AI代理将不再孤立,而是通过MCP无缝连接多样能力,真正实现智能助理的多场景落地。
一款轻量级、高度可定制的开源编码命令行工具,基于 Groq 实现极速迭代体验。

• 极简架构,去除臃肿代码,便于本地开发和深度定制,适合想打造专属 CLI 的开发者
• 内置常用命令与工具,支持自定义启动命令、ASCII 艺术,随时扩展 slash 命令(如 /complexity、/deadcode)
• 支持通过 Groq 模型加速智能交互,轻松调用 AI 功能提升编码效率
• 多种安装方式:克隆源码开发、全局安装或 npx 一次性使用,灵活适配各种开发场景
• 结构清晰,代码分层合理,方便添加新工具(定义 schema + 实现功能 + 注册),以及新增用户交互命令
• 配置管理支持本地环境变量或 .groq/ 文件,保障密钥与模型选择安全便捷
• 开发体验友好,支持热更新监听(npm run dev)和详细调试日志,助力快速迭代
• 对社区开放,欢迎提交 PR 贡献功能,持续丰富生态

Groq Code CLI 让你真正拥有属于自己的编码命令行,兼顾轻量和强大,助力高效开发与个性化扩展。

Groq Code CLI | #工具
Media is too big
VIEW IN TELEGRAM
高效阅读学术论文的实用流程分享

• 利用 Obsidian 结合 pdf++ 插件与 Excalidraw,实现 PDF 注释与可视化思维导图无缝集成,极大提升笔记的结构化和直观性。
• 通过论文中的引用链条决定后续阅读重点,构建知识网络而非盲目阅读,节省时间聚焦核心文献。
• 主要借助 Google Scholar 和 arXiv 等学术搜索引擎精准定位相关论文,确保信息权威且及时。
• 关注专业信息源如 bycloud、yannic 频道,获取最新、高质量的研究动态,避免信息滞后。
• 保持社交平台(X 和 LinkedIn)时间线整洁,利用平台算法推荐发现有价值论文,结合多渠道信息源实现全面覆盖。
• 通过系统化工具与渠道整合,打造个性化的科研知识管理体系,优化学习路径和研究效率。
掌握LLM高效提示的10大技巧,远超常规用法,彻底提升生成结果质量:

1. 初级阶段——建立清晰指令与示范基础
• 零样本提示(Zero-Shot):直接给出明确、具体的任务指令,避免模糊开放式提问。
例:“请用三条要点总结这篇文章。”优于“你怎么看这篇文章?”
• 少样本提示(Few-Shot):通过示范示例教模型如何回答,利用模型模式匹配本质强化理解。
例如:给出几个问答对,最后引导模型完成未给出的题目。

2. 中级阶段——引导模型逐步推理与验证
• 思维链(Chain-of-Thought,CoT):提示模型“逐步思考”,让它在回答前展开推理过程,有效提升复杂问题的准确率。
• 自动思维链(Auto-CoT):省去手动示范,模型自主生成推理示例,实现高效且可扩展的逻辑展开。
• 自洽性(Self-Consistency):同一问题多次询问,汇总最常出现答案,利用多样输出中的共识提升结果稳定性。

3. 高级阶段——多路径探索与自我迭代优化
• 思维树(Tree-of-Thoughts,ToT):模型不局限于单一路径,而是像决策树一样生成多条思路,测试并选择最佳方案,用于解谜、策略和复杂推理。
• 思维图(Graph-of-Thoughts,GoT):模拟人类非线性思维,支持思路组合、回溯与融合,极大增强创造力和复杂规划能力。
• 自我优化(Self-Refine):引导模型先写作,再进行自我批评,最后基于反馈改写,提高文本逻辑、语气和表达清晰度。

4. 专家级技巧——程序化与严谨逻辑推理
• 代码链(Chain-of-Code,CoC):利用伪代码或实际代码逻辑强制模型结构化思考,减少废话,提升精确度,尤其适合算法及工程类任务。
• 逻辑链(Logic-of-Thought,LoT):引入形式逻辑规则(如“若A则B,A成立,故B成立”),强化模型在法律、伦理、科学等领域的严密推理能力。

5. 附加提升策略
• 减少幻觉(Hallucination):结合检索增强生成(RAG)、ReAct(推理+行动)、链式验证等技术,促使模型校验自身输出,降低虚假信息风险。
• 情绪智能调节:通过具体语气提示塑造输出风格,如“用平静语气解释”、“像对10岁儿童讲解”,提示语气直接影响生成文本的情感色彩和接受度。

@jowettbrendan | #技巧 #经验
麒白掌 (@qibaizhang)魔搭免费api接口支持Anthropic API可直接用于claucode附教程 中发帖

今天看到这个消息 
 [31e438156b37974c94532270b2c9fc5] 
测试支持Anthropic API了 于是去试了下能不能直接支持claudecode 
直接改环境变量的这几个 
“ANTHROPIC_API_KEY”: “你自己的key注意去掉前面的ms-”, 
“ANTHROPIC_BASE_URL”: “https://api-inference.modelscope.cn”, 
“ANTHROPIC_MODEL”: “Qwen/Qwen3-Coder-480B-A35B-Instruct”, 
“ANTHROPIC_SMALL_FAST_MODEL”: “Qwen/Qwen3-Coder-480B-A35B-Instruct” 
我直接默认用的qwen3code 可以换成里面能用的别的模型 
[image] 
也可以用glm4.5,总共每天免费2000次 ...
Back to Top