本站提供最佳griffpatch作品源码服务,欢迎转载和分享。

【无忧当铺源码超市】【网页表白程序源码】【模板下载整站源码】poco源码分析

2024-11-25 05:03:36 来源:窗口评价系统 源码 分类:知识

1.【Poco笔记】线程Thread
2.Poco库--1.编译(Win 10)
3.C#如何在海量数据下的源码高效读取写入MySQL
4.教你如何在Linux系统下编译Poco框架linux编译poco

poco源码分析

【Poco笔记】线程Thread

        Poco的Thread是对标准库std::thread的封装,同时它类似Java一样,提供了Runnable接口。所以使用上是对标Java的。

        与标准库不同的是,Poco::Thread创建和运行时相分离的。这一点标准库设计确实不太友好。例如下面例子。

        同样看例子

        由上面可见,使用基本跟Java类似。创建与运行也分离了。

        看一下主要的运行接口,摘自Poco1.9源码

        源码文件主要包含

        1.Thread.h/Thread.cpp

        提供外部调用接口

        在Thread.cpp中定义了两种Holder, RunnableHolder和CallableHolder。Holder技术是Poco框架中经常用到的,是对某一种类型对象的指针包装。

        Runnable为线程运行类的基类,

        Callable为带一个参数的方法

        2.Thread_POSIX.h/Thread_POSIX.cpp

        3.Thread_VX.h/Thread_VX.cpp

        4.Thread_WIN.h/Thread_WIN.cpp

        5.Thread_WINCE.h/Thread_WINCE.cpp

        这几个文件,每个文件中都定义了ThreadImpl,用于不同平台下的具体实现,Thread私有继承ThreadImp,ThreadImp用于哪一个文件由编译宏决定。

        顺便说一下POSIX系统下的实现。因为使用的是c++,当时没有thread类,所以所有的实现都是使用pthread库来实现的。具体的使用请参考pthread技术文档。

        6.ThreadLocal.h/ThreadLocal.cpp

        ThreadLocal中定义了三个类, TLSAbstractSlot类, TLSSlot类, ThreadLocalStorageç±»

        TLSAbstractSlot是基类,TLSSlot是模板类,通过模板技术包裹了具体的类型。ThreadLocalStorage是用于线程存储,具体是通过一个map来实现。

        因为1.9使用的是c++,还没有引用local_thread关键字,所以这里是通过这种方式实现。

        ThreadLocalStorage定义如下

        那么Poco::Thread的tls是如何定义的?

        源码文件比较少,主要如下文件

        1.Thread.h/Thread.cpp

        2.Thread_STD.h/Thread_POSIX.cpp/Thread_VX.cpp/Thread_WIN.cpp

        Thread.h 主要对实现类ThreadImp的包装,并定义了对外接口。

        Thread_STD.h定义了内部实现,主要提供了ThreadImpç±»

        Thread_POSIX.cpp/Thread_VX.cpp/Thread_WIN.cpp分别定义不同平台下的兼容实现

        在Thread_STD.h中定义了几个重要类型

        在Thread.cpp中增加了两种

        private修饰的ThreadData,定义了线程内部数据。 1.9中源码分别定义在各个平台实现类中,这里抽离出来定义在Thread.cpp中。较之前的定义,这里额外的是新增了std::thread指针。因为直接引用了c++中的thread,有些实现直接借助于它。

Poco库--1.编译(Win )

       说明:

       1) 本编译方法为简化版,完整Poco库编译需借助额外软件如OpenSSL,分析本文不涉及此部分。源码

       2) 使用的分析编译工具链为msvc ,如未安装需下载:此处链接。源码

       源码地址:

       GitHub链接

       编译环境:

       运行于win系统,分析无忧当铺源码超市采用msvc 编译工具链。源码

       编译步骤:

       参照源码根目录README.md中关于Linux、分析macOS、源码Windows的分析CMake构建部分进行操作。

       本方法编译静态库,源码如需动态库,分析调整编译选项即可。源码执行cmake -LH .命令可查看生效的分析编译选项设置。

C#如何在海量数据下的源码高效读取写入MySQL

        前提

       由于工作的原因,经常需要对海量数据进行处理,网页表白程序源码做的数据爬虫相关,动辄千万级别的数据,单表几十个G都是都是家常便饭。 主要开发语言是C#,数据库使用的是MySQL。

       最常见的操作便是 select 读取数据,然后在C#中对数据进行处理, 完毕后再插入数据库中。 简而言之就 select -> process -> insert三个步骤。 对于数据量小的情况下(百万级别 or 几百兆)可能最多1个小时就处理完了。但是对于千万级数据可能几天,甚至更多。 那么问题来了,如何优化

       (数据库的一览,有图有真相)

       第一步 解决读取的模板下载整站源码问题

       跟数据库打交道的方式有很多,我来列举下吧:

       1. 重武器-坦克大炮使用重型ORM框架,比如EF,NHibernat 这样的框架。

       2. 轻武器-AK 使用Dapper,PetaPoco之类,单cs文件。灵活高效,使用简单。居家越货必备(我更喜欢PetaPoco :))

       3. 冷兵器?匕首?使用原生的Connection、Command。 然后写原生的SQL语句。

       分析:

       重武器在我们这里肯定直接被PASS, 他们应该被用在大型项目中。

       轻武器Dapper,PetaPoco 看过源码你会发现用到了反射,虽然使用IL和缓存技术,但是还是会影响读取效率,PASS

       好吧那就只有使用匕首,帝国cms评测源码原生SQL走起, 利用DataReader 进行高效读取,并且使用索引取数据(更快),而不是列名。

       大概的代码如下:

       using (var conn = new MySqlConnection('Connection String...'))

       {

        conn.Open();

        //此处设置读取的超时,不然在海量数据时很容易超时

        var c = new MySqlCommand('set net_write_timeout=; set net_read_timeout=', conn);

        c.ExecuteNonQuery();

        MySqlCommand rcmd = new MySqlCommand();

        rcmd.Connection = conn;

        rcmd.CommandText = @'SELECT `f1`,`f2` FROM `table1`';

        //设置命令的执行超时

        rcmd.CommandTimeout = ;

        var myData = rcmd.ExecuteReader();

        while (myData.Read())

        {

        var f1= myData.GetInt(0);

        var f2= myData.GetString(1);

        //这里做数据处理....

        }

       }

       哈哈,怎么样,代码非常原始,还是使用索引来取数据,很容易出错。 当然一切为了性能咱都忍了

       第二步 数据处理

       其实这一步,根据你的业务需要,代码肯定不一, 不过无非是一些字符串处理,类型转换的博客源码广告操作,这时候就是考验你的C#基础功底的时候了。 以及如何高效编写正则表达式。。

       具体代码也没法写啊 ,先看完CLR via C# 在来跟我讨论吧 ,O(∩_∩)O哈哈哈~ 跳过。。

       第三部 数据插入

       如何批量插入才最高效呢? 有同学会说, 使用事务啊,BeginTransaction, 然后EndTransaction。 恩,这个的确可以提高插入效率。 但是还有更加高效的方法,那就是合并insert语句。

       那么怎么合并呢?

       insert into table (f1,f2) values(1,'sss'),values(2,'bbbb'),values(3,'cccc');

       就是把values后面的全部用逗号,链接起来,然后一次性执行 。

       当然不能一次性提交个MB的SQL执行,MySQL服务器对每次执行命令的长度是有限制的。 通过 MySQL服务器端的max_allowed_packet 属性可以查看, 默认是1MB

       咱们来看看伪代码吧

        //使用StringBuilder高效拼接字符串

        var sqlBuilder = new StringBuilder();

        //添加insert 语句的头

        string sqlHeader = 'insert into table1 (`f1`,`f2`) values';

        sqlBuilder.Append(sqlHeader);

        using (var conn = new MySqlConnection('Connection String...'))

        {

        conn.Open();

        //此处设置读取的超时,不然在海量数据时很容易超时

        var c = new MySqlCommand('set net_write_timeout=; set net_read_timeout=', conn);

        c.ExecuteNonQuery();

        MySqlCommand rcmd = new MySqlCommand();

        rcmd.Connection = conn;

        rcmd.CommandText = @'SELECT `f1`,`f2` FROM `table1`';

        //设置命令的执行超时

        rcmd.CommandTimeout = ;

        var myData = rcmd.ExecuteReader();

        while (myData.Read())

        {

        var f1 = myData.GetInt(0);

        var f2 = myData.GetString(1);

        //这里做数据处理....

        sqlBuilder.AppendFormat('({ 0},'{ 1}'),', f1,AddSlash(f2));

        if (sqlBuilder.Length >= * )//当然这里的1MB length的字符串并不等于 1MB的Packet。。我知道:)

        {

        insertCmd.Execute(sqlBuilder.Remove(sqlBuilder.Length-1,1).ToString())//移除逗号,然后执行

        sqlBuilder.Clear();//清空

        sqlBuilder.Append(sqlHeader);//在加上insert 头

        }

        }

       }

       好了,到这里 大概的优化后的高效查询、插入就完成了。

       结语

       总结下来,无非2个关键技术点,DataReader、SQL合并,都是一些老的技术啦。

       其实,上面的代码只能称得上 高效 , 但是, 却非常的不优雅。。甚至难看。。

       那那么问题来了? 如何进行重构呢? 通过重构抽象出一个可用的类,而不必关心字符串拼接这些乱七八糟的东西,支持多线程合并写入,最大限度提高写入IO, 我们在下一篇文章中再来谈谈。

       您可能感兴趣的文章:C#使用SqlDataAdapter对象获取数据的方法C#使用SQL Dataset数据集代码实例C#使用SQL DataReader访问数据的优点和实例C# 操作PostgreSQL 数据库的示例代码C#实现连接SQL Server数据库并执行SQL语句的方法C#连接到sql server数据库的实例代码C#实现Excel表数据导入Sql Server数据库中的方法详解C#批量插入数据到Sqlserver中的四种方式C#在MySQL大量数据下的高效读取、写入详解c#几种数据库的大数据批量插入(SqlServer、Oracle、SQLite和MySql)C#操作SQLite数据库之读写数据库的方法C#操作SQLite数据库方法小结(创建,连接,插入,查询,删除等)C#简单访问SQLite数据库的方法(安装,连接,查询等)C#使用SQL DataAdapter数据适配代码实例

教你如何在Linux系统下编译Poco框架linux编译poco

       Poco是一个轻量级,开源的C ++类库,提供了跨平台的网络,数据库,可移植性/ IPC,XML,Networking,Logging,Cryptography和Utilities等组件。它具有出色的性能和可扩展性,可以支持数据库,Sockets,SSL,HTTP,XML,CGI,RPC,WebDAV,SMTP,文件,应用程序和更多。

       在Linux系统下,可以通过编译Poco框架来使用它。但是,在完成这一步之前,首先需要准备一些工具和库,例如:GNU gcc/g++,CMake等。

       步骤1:从官方网站下载最新版本的Poco框架源代码,解压缩。

       步骤2:在shell提示符中,执行以下命令来创建build文件夹:

       mkdir -p build

       步骤3:进入build文件夹,以在其中编译Poco框架:

       cd build

       步骤4:启动CMake,以创建Poco框架的make文件:

       cmake ..

       步骤5:在上述命令执行后,可以在build文件夹中找到make文件,并使用make命令编译源文件:

       make

       步骤6:完成编译后,可以使用make install命令将Poco安装在指定的文件夹:

       sudo make install

       步骤7:最后,运行ldconfig命令更新库路径,以便Poco框架在应用程序中可用:

       sudo ldconfig –v

       这样,现在我们已经在Linux系统上编译并安装了Poco框架,并且可以开始在应用程序中使用Poco功能。

【本文网址:http://5o.net.cn/html/90e115498755.html 欢迎转载】

copyright © 2016 powered by 皮皮网   sitemap