这是一个GitHub项目,专注于收集和整理用于GPT图像生成模型的优质提示词(prompts),帮助用户更好地利用AI图像生成技术创作出理想的视觉内容。
#prompt-engineering
15 条相关内容
这篇文章探讨了GPT-4在图像识别任务中的局限性,通过一个具体的例子展示了AI系统在识别复杂场景时可能出现的错误判断,并讨论了当前计算机视觉技术的边界。
作者为解决不同AI编程工具(Cursor、Claude Code、VS Code)提示格式不统一的问题,开发了一个CLI工具和Markdown标准。用户只需编写一次"技能"文件,即可自动同步到所有工具,支持团队共享和个人知识库集成。
本文探讨了超越简单提示的LLM应用方法,强调通过系统化思维、工具集成和迭代优化来充分发挥大型语言模型的潜力,而不仅仅是依赖提示工程技巧。
这篇文章探讨了人工智能图像生成技术的能力与局限性,特别是关于生成戴帽子的狗这一具体任务。作者分析了当前AI模型在理解复杂视觉概念和生成符合逻辑的图像方面面临的挑战。
String Seed of Thought (SSOT) 是一种创新的提示技术,通过使用字符串作为种子来引导语言模型生成既忠实于训练数据分布又具有多样性的文本。该方法在保持生成质量的同时显著提升了输出结果的多样性,为可控文本生成提供了新的解决方案。
相同提示,更差结果
2.0本文探讨了在AI模型迭代中出现的"相同提示却得到更差结果"的现象,分析了可能的原因包括训练数据变化、模型架构调整、评估指标偏差等,并提出了应对策略。
本文探讨了"三思而后建"提示策略的多种实现方式,通过一个学会"测量两次"的海狸寓言,强调了在构建AI系统前进行充分思考的重要性。文章分析了不同思考模式如何影响最终输出质量,为开发者提供了实用的提示工程指导。
Google发布Gemini 3.1 Flash TTS文本转语音模型,支持通过详细提示词控制语音风格、口音和情感表达,展示了前所未有的语音生成可控性。
作者通过一个简洁的提示,指导AI代理成功为其博客转通讯工具添加了新的"beats"内容类型,使其能够自动包含带有描述的博客外部内容更新,并验证了修改的正确性。
研究表明,让LLM在开始任务前生成技能文档并无帮助,因为模型会基于训练数据中的错误假设。真正有效的方法是让LLM在通过大量尝试成功解决问题后,再总结提炼出技能文档,这样能捕捉到实际获得的经验知识而非固有偏见。
作者尝试对 Claude Haiku 4.5 进行越狱,但AI直接反问这些尝试是否真的有用,还是仅仅为了测试越狱是否有效。这反映了AI对越狱尝试的警觉性和自我保护机制。
Nano Banana支持32,768个输入令牌,作者将尝试充分利用这一容量进行精细的提示词工程,探索AI图像生成的细微控制可能性。
本文探讨了提示工程与盲目提示之间的区别。提示工程是一种系统化、可重复的方法,通过精心设计提示来优化AI模型输出;而盲目提示则是随意尝试不同提示,缺乏系统性。文章强调了采用工程化方法的重要性,以实现更可靠、可预测的结果。
提示工程适用于事务性提示
2.5本文探讨了提示工程的核心价值在于事务性提示——那些需要精确、可靠输出的场景,而非创意性任务。作者认为提示工程应专注于构建可重复、可验证的提示,以实现与AI系统的稳定交互。