1..NET ORM 跨服库查询 MySql、源码Oracle、源码SqlServer等相互联表
2.C#如何在海量数据下的源码高效读取写入MySQL
3..NET的轻量级高性能ORM 让代码更优雅
.NET ORM 跨服库查询 MySql、Oracle、源码SqlServer等相互联表
SqlSugar ORM 的源码发展与重构
在年,SqlSugar ORM经历了一年半的源码转卖源码停更,主要是源码因为底层架构的影响,导致了技术上的源码瓶颈和遗留问题的累积。团队选择在那段时间内不进行更新,源码以避免对现有用户产生不必要的源码影响。这期间,源码团队努力保持与用户的源码沟通,鼓励那些热爱SqlSugar的源码用户寻找其他框架,同时留下了一批对SqlSugar有深厚情谊,源码愿意共同完善框架的源码用户。
经过一年半的筹备,SqlSugar ORM在年正式开始重构,每过一个月就进行一部分的更新,并添加新的功能。最终,在大量努力和优化后,重构工作得以完成。现在,真正的穿越源码SqlSugar ORM可以实现多库架构,底层兼容性增强,例如事务处理无需引用外部DLL,底层语法支持多库操作。
SqlSugar ORM支持跨服务器、跨库联表查询,并提供了一整套实现方式,包括一对一、一对多、多对多等查询模式。通过特性实现多库查询,或手动指定数据库进行查询,以满足不同场景的需求。
重构后的SqlSugar ORM在性能方面同样得到保障,无论是单库查询还是多库查询,其性能一致,因为使用了一套统一的算法。其原理在于一次性获取所需数据,然后在内存中分配置,以便进行高效的数据读取。
如今,SqlSugar ORM取得了显著的repleace源码怎么用成绩。在企业认可方面,job使用SqlSugar ORM来搜索简历,其数量仅次于EF和Dapper,甚至超过了国外的Nhibernate和PetaPoco,占Dapper使用量的%。知名收费框架JNPF和力软都选择了SqlSugar作为其工具。同时,一些培训机构也开始将SqlSugar作为教学内容之一。
在用户认可方面,SqlSugar ORM拥有强大的生态系统,据统计,有超过个项目的使用量,其中大多数项目在GitHub或Gitee上有星以上。此外,还有5个人规模的社区在讨论SqlSugar相关的内容。一些知名项目如RuYiAdmin、ZrAdminNetCore、Admin.NET通用管理平台、Yi框架(Ruoyi Vue)、CoreShop商城、Blog.Core等都在积极使用SqlSugar ORM。
如需了解详细信息或寻求合作,小红球指标源码欢迎访问SqlSugar的官方GitHub仓库,获取源码或参与讨论。
C#如何在海量数据下的高效读取写入MySQL
前提
由于工作的原因,经常需要对海量数据进行处理,做的数据爬虫相关,动辄千万级别的数据,单表几十个G都是都是家常便饭。 主要开发语言是C#,数据库使用的是MySQL。
最常见的操作便是 select 读取数据,然后在C#中对数据进行处理, 完毕后再插入数据库中。 简而言之就 select -> process -> insert三个步骤。 对于数据量小的情况下(百万级别 or 几百兆)可能最多1个小时就处理完了。但是对于千万级数据可能几天,甚至更多。 那么问题来了,如何优化
(数据库的一览,有图有真相)
第一步 解决读取的问题
跟数据库打交道的方式有很多,我来列举下吧:
1. 重武器-坦克大炮使用重型ORM框架,比如EF,NHibernat 这样的框架。
2. 轻武器-AK 使用Dapper,react useContext源码解析PetaPoco之类,单cs文件。灵活高效,使用简单。居家越货必备(我更喜欢PetaPoco :))
3. 冷兵器?匕首?使用原生的Connection、Command。 然后写原生的SQL语句。
分析:
重武器在我们这里肯定直接被PASS, 他们应该被用在大型项目中。
轻武器Dapper,PetaPoco 看过源码你会发现用到了反射,虽然使用IL和缓存技术,但是还是会影响读取效率,PASS
好吧那就只有使用匕首,原生SQL走起, 利用DataReader 进行高效读取,并且使用索引取数据(更快),而不是列名。
大概的代码如下:
using (var conn = new MySqlConnection('Connection String...'))
{
conn.Open();
//此处设置读取的超时,不然在海量数据时很容易超时
var c = new MySqlCommand('set net_write_timeout=; set net_read_timeout=', conn);
c.ExecuteNonQuery();
MySqlCommand rcmd = new MySqlCommand();
rcmd.Connection = conn;
rcmd.CommandText = @'SELECT `f1`,`f2` FROM `table1`';
//设置命令的执行超时
rcmd.CommandTimeout = ;
var myData = rcmd.ExecuteReader();
while (myData.Read())
{
var f1= myData.GetInt(0);
var f2= myData.GetString(1);
//这里做数据处理....
}
}
哈哈,怎么样,代码非常原始,还是使用索引来取数据,很容易出错。 当然一切为了性能咱都忍了
第二步 数据处理
其实这一步,根据你的业务需要,代码肯定不一, 不过无非是一些字符串处理,类型转换的操作,这时候就是考验你的C#基础功底的时候了。 以及如何高效编写正则表达式。。
具体代码也没法写啊 ,先看完CLR via C# 在来跟我讨论吧 ,O(∩_∩)O哈哈哈~ 跳过。。
第三部 数据插入
如何批量插入才最高效呢? 有同学会说, 使用事务啊,BeginTransaction, 然后EndTransaction。 恩,这个的确可以提高插入效率。 但是还有更加高效的方法,那就是合并insert语句。
那么怎么合并呢?
insert into table (f1,f2) values(1,'sss'),values(2,'bbbb'),values(3,'cccc');
就是把values后面的全部用逗号,链接起来,然后一次性执行 。
当然不能一次性提交个MB的SQL执行,MySQL服务器对每次执行命令的长度是有限制的。 通过 MySQL服务器端的max_allowed_packet 属性可以查看, 默认是1MB
咱们来看看伪代码吧
//使用StringBuilder高效拼接字符串
var sqlBuilder = new StringBuilder();
//添加insert 语句的头
string sqlHeader = 'insert into table1 (`f1`,`f2`) values';
sqlBuilder.Append(sqlHeader);
using (var conn = new MySqlConnection('Connection String...'))
{
conn.Open();
//此处设置读取的超时,不然在海量数据时很容易超时
var c = new MySqlCommand('set net_write_timeout=; set net_read_timeout=', conn);
c.ExecuteNonQuery();
MySqlCommand rcmd = new MySqlCommand();
rcmd.Connection = conn;
rcmd.CommandText = @'SELECT `f1`,`f2` FROM `table1`';
//设置命令的执行超时
rcmd.CommandTimeout = ;
var myData = rcmd.ExecuteReader();
while (myData.Read())
{
var f1 = myData.GetInt(0);
var f2 = myData.GetString(1);
//这里做数据处理....
sqlBuilder.AppendFormat('({ 0},'{ 1}'),', f1,AddSlash(f2));
if (sqlBuilder.Length >= * )//当然这里的1MB length的字符串并不等于 1MB的Packet。。我知道:)
{
insertCmd.Execute(sqlBuilder.Remove(sqlBuilder.Length-1,1).ToString())//移除逗号,然后执行
sqlBuilder.Clear();//清空
sqlBuilder.Append(sqlHeader);//在加上insert 头
}
}
}
好了,到这里 大概的优化后的高效查询、插入就完成了。
结语
总结下来,无非2个关键技术点,DataReader、SQL合并,都是一些老的技术啦。
其实,上面的代码只能称得上 高效 , 但是, 却非常的不优雅。。甚至难看。。
那那么问题来了? 如何进行重构呢? 通过重构抽象出一个可用的类,而不必关心字符串拼接这些乱七八糟的东西,支持多线程合并写入,最大限度提高写入IO, 我们在下一篇文章中再来谈谈。
您可能感兴趣的文章:C#使用SqlDataAdapter对象获取数据的方法C#使用SQL Dataset数据集代码实例C#使用SQL DataReader访问数据的优点和实例C# 操作PostgreSQL 数据库的示例代码C#实现连接SQL Server数据库并执行SQL语句的方法C#连接到sql server数据库的实例代码C#实现Excel表数据导入Sql Server数据库中的方法详解C#批量插入数据到Sqlserver中的四种方式C#在MySQL大量数据下的高效读取、写入详解c#几种数据库的大数据批量插入(SqlServer、Oracle、SQLite和MySql)C#操作SQLite数据库之读写数据库的方法C#操作SQLite数据库方法小结(创建,连接,插入,查询,删除等)C#简单访问SQLite数据库的方法(安装,连接,查询等)C#使用SQL DataAdapter数据适配代码实例
.NET的轻量级高性能ORM 让代码更优雅
在.NET开发领域,选择合适的ORM(对象关系映射)工具对于提升代码质量和效率至关重要。本文旨在探讨TZM.XFramework作为一种轻量级高性能ORM解决方案,如何让代码变得更加优雅。
ORM工具在处理数据库操作时,能够将复杂的SQL语句转换为简洁的C#代码,显著提高开发效率。在.NET生态系统中,EF(Entity Framework)等官方ORM提供了强大的功能,而第三方库如linq2db、StackExchange/Dapper、NHibernate、PetaPoco和Freesql等,也各自有着广泛的社区支持和适应场景。
TZM.XFramework正是在这样的背景下,为.NET开发者提供了一种简洁、高效的ORM解决方案。其核心优势在于对多表关联操作的优化,包括更新、插入和删除等常见数据库操作,通过生成针对性的SQL语句,实现高效执行,避免了不必要的数据库访问,从而提升了性能。
在多表关联更新场景中,TZM.XFramework能够自动构建相应的SQL更新语句,并且支持Oracle等数据库的特定语法转换,确保在不同数据库环境下的兼容性。对于多表关联插入,通过解析SELECT语句并生成完整的INSERT INTO语句,能够高效地处理复杂的数据插入需求。在多表关联删除操作中,同样通过生成DELETE FROM或MERGE INTO语句来实现高效删除,即使在Oracle等不支持DELETE FROM的数据库中也能通过ROWID实现关联删除。
TZM.XFramework的这些功能不仅简化了数据库操作的编码过程,还提供了对多种数据库的支持,包括已经正式支持的SQLite。通过使用TZM.XFramework,开发者能够以更优雅、更高效的方式处理数据库交互,提高代码的可读性和维护性。
随着项目的发展和需求的演进,TZM.XFramework将持续进行优化和扩展,以适应更广泛的开发场景和需求。对于有兴趣尝试或希望深入了解TZM.XFramework的开发者,可以访问其GitHub地址进行探索和学习。
代码的优雅不仅仅体现在其执行效率上,更在于它能够清晰地表达业务逻辑,减少错误和维护成本。选择合适的ORM工具,如TZM.XFramework,是迈向高效、简洁代码的重要一步。