 <?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="zh-CN">
		<id>http://wiki.sseuu.com/index.php?action=history&amp;feed=atom&amp;title=LoRA</id>
		<title>LoRA - 版本历史</title>
		<link rel="self" type="application/atom+xml" href="http://wiki.sseuu.com/index.php?action=history&amp;feed=atom&amp;title=LoRA"/>
		<link rel="alternate" type="text/html" href="http://wiki.sseuu.com/index.php?title=LoRA&amp;action=history"/>
		<updated>2026-04-04T02:17:10Z</updated>
		<subtitle>本wiki的该页面的版本历史</subtitle>
		<generator>MediaWiki 1.30.0</generator>

	<entry>
		<id>http://wiki.sseuu.com/index.php?title=LoRA&amp;diff=122132&amp;oldid=prev</id>
		<title>江南仁：创建页面，内容为“{{4}} LoRA是一种大语言模型训练方法，可以理解为stable diffusion（SD）模型的一种插件。它利用少量数据训练出一种画风/IP/人物...”</title>
		<link rel="alternate" type="text/html" href="http://wiki.sseuu.com/index.php?title=LoRA&amp;diff=122132&amp;oldid=prev"/>
				<updated>2023-11-09T00:02:42Z</updated>
		
		<summary type="html">&lt;p&gt;创建页面，内容为“{{4}} LoRA是一种大语言模型训练方法，可以理解为stable diffusion（SD）模型的一种插件。它利用少量数据训练出一种画风/IP/人物...”&lt;/p&gt;
&lt;p&gt;&lt;b&gt;新页面&lt;/b&gt;&lt;/p&gt;&lt;div&gt;{{4}}&lt;br /&gt;
LoRA是一种大语言模型训练方法，可以理解为stable diffusion（SD）模型的一种插件。它利用少量数据训练出一种画风/IP/人物，实现定制化需求。和hyper-network、controlNet一样，LoRA也是在不修改SD模型的前提下实现的。&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
LoRA最初应用于[[NLP]]领域，用于微调[[GPT-3]]等模型（也就是[[ChatGPT]]的前生）。由于[[GPT]]参数量超过千亿，训练成本太高，因此LoRA采用了一个办法，仅训练低秩矩阵（low rank matrics），使用时将LoRA模型的参数注入（inject）SD模型，从而改变SD模型的生成风格，或者为SD模型添加新的人物/IP。&lt;/div&gt;</summary>
		<author><name>江南仁</name></author>	</entry>

	</feed>