大
大语言模型(LLM)
一种在海量文本数据上训练的AI,能够生成、总结、翻译和分析人类语言。例如GPT-4、Claude和Gemini。
幻
幻觉
当AI模型生成听起来合理但实际上不正确或完全捏造的信息时的现象。在法律语境中,这通常表现为虚构的案例引用或不准确的法规参考。
机
机器学习(ML)
AI的一个子集,系统从数据中学习模式,而不是被明确编程。是大多数现代AI工具的基础。
技
技术辅助审查(TAR)
利用AI和机器学习协助在诉讼证据开示过程中审查大量文档。在许多司法管辖区已获得法院批准。
可
可解释性
AI系统的决策过程能够被人类理解的程度。在法律应用中至关重要,因为决策必须能够被论证和上诉。
企
企业级AI
为组织使用而设计的AI工具,具有增强的安全性、数据保护、访问控制和合规功能——与面向消费者的工具不同。
人
人工智能(AI)
计算机科学的一个广泛领域,专注于构建能够执行通常需要人类智能的任务的系统,如模式识别、语言理解和决策制定。
上
上下文窗口
大语言模型在单次交互中能够处理的最大文本量(以Token衡量)。更大的上下文窗口允许处理更长的文档。
生
生成式AI
能够创建新内容的AI系统——文本、图像、代码、音频——而不仅仅是分析现有数据。ChatGPT、Claude、DALL-E和Midjourney都是例子。
算
算法偏见
AI输出中反映训练数据或模型设计中偏见的系统性错误。在法律语境中,这可能影响量刑建议、招聘工具和风险评估。
提
提示词
提供给AI系统的文本输入,用于引导其响应。在法律实践中,提示词的质量直接影响输出质量。
提示词工程
制作有效提示词以获得期望AI输出的技能。包括指定上下文、角色、指令、格式和约束条件。
微
微调(Fine-Tuning)
使用专业数据(如法律文本)对通用AI模型进行进一步训练的过程,以提高其在特定领域的性能。
训
训练数据
用于训练AI模型的数据集。对于大语言模型,通常包括书籍、网站、学术论文和其他文本。训练数据的组成影响模型的行为和偏见。
自
自然语言处理(NLP)
AI的一个子领域,专注于使计算机能够理解、解释和生成人类语言。
A
API(应用程序编程接口)
软件系统之间相互通信的方式。AI API使开发者能够将人工智能功能集成到其他应用程序中,包括法律科技平台。
C
CRAFT框架
一种构建有效法律提示词的结构化方法:Context(上下文)、Role(角色)、Action(操作)、Format(格式)、Tone(语气)。为Lawra开发,旨在帮助法律专业人士与AI系统进行有效沟通。
R
RAG(检索增强生成)
一种通过在生成输出之前从精心策划的知识库中检索相关信息来增强AI响应的技术,可减少幻觉并提高准确性。
T
Token(词元)
大语言模型处理的基本文本单位。大约相当于中文的一到两个字。模型有Token限制,约束输入和输出的长度。
Transformer架构
支撑现代大语言模型的神经网络设计。2017年推出,Transformer通过同时关注输入中所有词语之间的关系来处理文本。
评论
正在加载评论...