Lazarus中文社区

 找回密码
 立即注册(注册审核可向QQ群索取)

QQ登录

只需一步,快速开始

Lazarus IDE and 组件 下载地址版权申明
查看: 3643|回复: 3

Pascal Socket模型

[复制链接]

该用户从未签到

发表于 2013-5-21 10:01:43 | 显示全部楼层 |阅读模式
本帖最后由 steven 于 2013-5-21 10:58 编辑

                            Pascal Socket模型
环境:windows
编程语言:pascal系列
注:转自互联网,原文有误,容易误导pascal系列的童鞋,这是修改版本。
作者:steven
首发:fpccn.com
作者添加了阻塞模型,修改部分描述。
老陈有一个在外地工作的女儿,不能经常回来,老陈和她通过电话或者信件联系。他们的信会被邮递员投递到他们的信箱里。
  这和Socket模型非常类似。下面我就以老陈接收信件为例讲解Socket I/O模型。


零:阻塞模型
老陈家安装邮箱前都是打电话给女儿,老陈首先需要给女儿拨号,但常常因为占线,断线得联系不到,这就像socket编程的阻塞模型。举例如下:
program blockdemo1;
{$APPTYPE CONSOLE}
uses
  SysUtils,
  windows,
  Winsock;
const serveradd='127.0.0.1';
    port=5150;
    msgsize=1024;
var
  wsadata1  :twsadata;
  sclient :TSocket;
  server1:sockaddr_in;
  szMessage:array [0..msgsize]of char;
  ret:integer;
begin
  { TODO -oUser -cConsole Main : Insert code here }
  WSAStartup($0202,wsadata1);
  sclient:=socket(AF_INET,SOCK_STREAM,IPPROTO_TCP);
  server1.sin_family := AF_INET;
  server1.sin_addr.S_addr :=inet_addr(serveradd);
  server1.sin_port := port;
  connect(sclient,server1,SizeOf(sockaddr_in));
  while true do
  begin
    Writeln('send:');
    Readln(szmessage);
    send(sclient,szMessage,Length(szMessage),0);
    ret := recv(sclient,szMessage,msgsize ,0);
    szMessage[ret] := #0;
    Writeln('received ',ret,'bytes :', szmessage);
  end;
  closesocket(sclient);
  WSACleanup;
end.

     ===================无止境的分割线===========================================
     下面全部都是非阻塞模型。凡是有FD_SET宏的,在pascal系列 同样可以修改 64个的限制,但是操作系统编译的时候似乎限制是1024个,无论怎么样弄,还是要受到这个限制。

  一:select选择模型
  老陈非常想看到女儿的信。以至于他每隔10分钟就下楼检查信箱,看是否有女儿的信,在这种情况下,“下楼检查信箱”然后回到楼上耽误了老陈太多的时间,以至于老陈无法做其他工作。
  select模型和老陈的这种情况非常相似:周而复始地去检查......如果有数据......接收/发送.......
  使用线程来select应该是通用的做法:
procedure TListenThread.Execute;
var
 addr : TSockAddrIn;
 fd_read : TFDSet;
 timeout : TTimeVal;
 ASock,
 MainSock : TSocket;
 len, i : Integer;
begin
 MainSock := socket( AF_INET, SOCK_STREAM, IPPROTO_TCP );
 addr.sin_family := AF_INET;
 addr.sin_port := htons(5678);
 addr.sin_addr.S_addr := htonl(INADDR_ANY);
 bind( MainSock, @addr, sizeof(addr) );
 listen( MainSock, 5 );
 while (not Terminated) do
 begin
  FD_ZERO( fd_read );
  FD_SET( MainSock, fd_read );
  timeout.tv_sec := 0;
  timeout.tv_usec := 500;
  if select( 0, @fd_read, nil, nil, @timeout ) > 0 then //至少有1个等待Accept的connection
  begin
   if FD_ISSET( MainSock, fd_read ) then
   begin
   for i:=0 to fd_read.fd_count-1 do //注意,fd_count <= 64,也就是说select只能同时管理最多64个连接
   begin
    len := sizeof(addr);
    ASock := accept( MainSock, addr, len );
    if ASock <> INVALID_SOCKET then
     ....//为ASock创建一个新的线程,在新的线程中再不停地select
    end;
   end;   
  end;
 end; //while (not self.Terminated)
 shutdown( MainSock, SD_BOTH );
 closesocket( MainSock );
end;
  二:WSAAsyncSelect异步选择模型
  后来,老陈使用了微软公司的新式信箱。这种信箱非常先进,一旦信箱里有新的信件,盖茨就会给老陈打电话:喂,大爷,你有新的信件了!从此,老陈再也不必频繁上下楼检查信箱了,牙也不疼了,你瞅准了,蓝天......不是,微软......
  微软提供的WSAAsyncSelect模型就是这个意思。
  WSAAsyncSelect模型是Windows下最简单易用的一种Socket I/O模型。使用这种模型时,Windows会把网络事件以消息的形势通知应用程序。
  首先定义一个消息标示常量:
const WM_SOCKET = WM_USER + 55;
  再在主Form的private域添加一个处理此消息的函数声明:
private
procedure WMSocket(var Msg: TMessage); message WM_SOCKET;
  然后就可以使用WSAAsyncSelect了:
var
 addr : TSockAddr;
 sock : TSocket;
 sock := socket( AF_INET, SOCK_STREAM, IPPROTO_TCP );
 addr.sin_family := AF_INET;
 addr.sin_port := htons(5678);
 addr.sin_addr.S_addr := htonl(INADDR_ANY);
 bind( m_sock, @addr, sizeof(SOCKADDR) );
 WSAAsyncSelect( m_sock, Handle, WM_SOCKET, FD_ACCEPT or FD_CLOSE );
 listen( m_sock, 5 );
 ....
  应用程序可以对收到WM_SOCKET消息进行分析,判断是哪一个socket产生了网络事件以及事件类型:
procedure TfmMain.WMSocket(var Msg: TMessage);
var
 sock : TSocket;
 addr : TSockAddrIn;
 addrlen : Integer;
 buf : Array [0..4095] of Char;
begin
 //Msg的WParam是产生了网络事件的socket句柄,LParam则包含了事件类型
 case WSAGetSelectEvent( Msg.LParam ) of
 FD_ACCEPT :
  begin
   addrlen := sizeof(addr);
   sock := accept( Msg.WParam, addr, addrlen );
   if sock <> INVALID_SOCKET then
    WSAAsyncSelect( sock, Handle, WM_SOCKET, FD_READ or FD_WRITE or FD_CLOSE );
  end;
  FD_CLOSE : closesocket( Msg.WParam );
  FD_READ : recv( Msg.WParam, buf[0], 4096, 0 );
  FD_WRITE : ;
 end;
end;
三:WSAEventSelect事件通知选择模型
  后来,微软的信箱非常畅销,购买微软信箱的人以百万计数......以至于盖茨每天24小时给客户打电话,累得腰酸背痛,喝蚁力神都不好使。微软改进了他们的信箱:在客户的家中添加一个附加装置,这个装置会监视客户的信箱,每当新的信件来临,此装置会发出“新信件到达”声,提醒老陈去收信。盖茨终于可以睡觉了。
  同样要使用线程:
procedure TListenThread.Execute;
var
 hEvent : WSAEvent;
 ret : Integer;
 ne : TWSANetworkEvents;
 sock : TSocket;
 adr : TSockAddrIn;
 sMsg : String;
 Index,
 EventTotal : DWORD;
 EventArray : Array [0..WSA_MAXIMUM_WAIT_EVENTS-1] of WSAEVENT;
begin
 ...socket...bind...
 hEvent := WSACreateEvent();
 WSAEventSelect( ListenSock, hEvent, FD_ACCEPT or FD_CLOSE );
 ...listen...
 while ( not Terminated ) do
 begin
  Index := WSAWaitForMultipleEvents( EventTotal, @EventArray[0], FALSE, WSA_INFINITE, FALSE );
  FillChar( ne, sizeof(ne), 0 );
  WSAEnumNetworkEvents( SockArray[Index-WSA_WAIT_EVENT_0], EventArray[Index-WSA_WAIT_EVENT_0], @ne );
  if ( ne.lNetworkEvents and FD_ACCEPT ) > 0 then
  begin
   if ne.iErrorCode[FD_ACCEPT_BIT] <> 0 then
    continue;
   ret := sizeof(adr);
   sock := accept( SockArray[Index-WSA_WAIT_EVENT_0], adr, ret );
   if EventTotal > WSA_MAXIMUM_WAIT_EVENTS-1 then//这里WSA_MAXIMUM_WAIT_EVENTS同样是64
   begin
    closesocket( sock );
    continue;
   end;
   hEvent := WSACreateEvent();
   WSAEventSelect( sock, hEvent, FD_READ or FD_WRITE or FD_CLOSE );
   SockArray[EventTotal] := sock;
   EventArray[EventTotal] := hEvent;
   Inc( EventTotal );
  end;
  if ( ne.lNetworkEvents and FD_READ ) > 0 then
  begin
   if ne.iErrorCode[FD_READ_BIT] <> 0 then
    continue;
    FillChar( RecvBuf[0], PACK_SIZE_RECEIVE, 0 );
    ret := recv( SockArray[Index-WSA_WAIT_EVENT_0], RecvBuf[0], PACK_SIZE_RECEIVE, 0 );
    ......
   end;
  end;
end;
  四:Overlapped I/O 重叠端口模型
  后来,微软通过调查发现,老陈不喜欢上下楼收发信件,因为上下楼其实很浪费时间。于是微软再次改进他们的信箱。新式的信箱采用了更为先进的技术,只要用户告诉微软自己的家在几楼几号,新式信箱会把信件直接传送到用户的家中,然后告诉用户,你的信件已经放到你的家中了!老陈很高兴,因为他不必再亲自收发信件了!
  Overlapped I/O  重叠端口模型和WSAEventSelect模型在实现上非常相似,主要区别在“Overlapped”,Overlapped模型是让应用程序使用重叠数据结构(WSAOVERLAPPED),一次投递一个或多个Winsock I/O请求。这些提交的请求完成后,应用程序会收到通知。什么意思呢?就是说,如果你想从socket上接收数据,只需要告诉系统,由系统为你接收数据,而你需要做的只是为系统提供一个缓冲区~~~~~
Listen线程和WSAEventSelect模型一模一样,Recv/Send线程则完全不同:
procedure TOverlapThread.Execute;
var
 dwTemp : DWORD;
 ret : Integer;
 Index : DWORD;
begin
 ......
 while ( not Terminated ) do
 begin
  Index := WSAWaitForMultipleEvents( FLinks.Count, @FLinks.Events[0], FALSE, RECV_TIME_OUT, FALSE );
  Dec( Index, WSA_WAIT_EVENT_0 );
  if Index > WSA_MAXIMUM_WAIT_EVENTS-1 then //超时或者其他错误
   continue;
  WSAResetEvent( FLinks.Events[Index] );
  WSAGetOverlappedResult( FLinks.Sockets[Index], FLinks.pOverlaps[Index], @dwTemp, FALSE,FLinks.pdwFlags[Index]^ );
  if dwTemp = 0 then //连接已经关闭
  begin
   ......
   continue;
  end else
 begin
  fmMain.ListBox1.Items.Add( FLinks.pBufs[Index]^.buf );
 end;
 //初始化缓冲区
 FLinks.pdwFlags[Index]^ := 0;
 FillChar( FLinks.pOverlaps[Index]^, sizeof(WSAOVERLAPPED), 0 );
 FLinks.pOverlaps[Index]^.hEvent := FLinks.Events[Index];
 FillChar( FLinks.pBufs[Index]^.buf^, BUFFER_SIZE, 0 );
 //递一个接收数据请求
 WSARecv( FLinks.Sockets[Index], FLinks.pBufs[Index], 1, FLinks.pdwRecvd[Index]^, FLinks.pdwFlags[Index]^, FLinks.pOverlaps[Index], nil );
end;
end;
五:Overlapped I/O 完成例程模型
  老陈接收到新的信件后,一般的程序是:打开信封----掏出信纸----阅读信件----回复信件......为了进一步减轻用户负担,微软又开发了一种新的技术:用户只要告诉微软对信件的操作步骤,微软信箱将按照这些步骤去处理信件,不再需要用户亲自拆信/阅读/回复了!老陈终于过上了小资生活!
  Overlapped I/O 完成例程要求用户提供一个回调函数,发生新的网络事件的时候系统将执行这个函数:
procedure WorkerRoutine( const dwError, cbTransferred : DWORD;
const
lpOverlapped : LPWSAOVERLAPPED; const dwFlags : DWORD ); stdcall;
  然后告诉系统用WorkerRoutine函数处理接收到的数据:
WSARecv( m_socket, @FBuf, 1, dwTemp, dwFlag, @m_overlap, WorkerRoutine );
  然后......没有什么然后了,系统什么都给你做了!微软真实体贴!
while ( not Terminated ) do//这就是一个Recv/Send线程要做的事情......什么都不用做啊!!!
begin
 if SleepEx( RECV_TIME_OUT, True ) = WAIT_IO_COMPLETION then //
 begin
  ;
 end else
 begin
  continue;
 end;
end;
  六:IOCP完成端口模型
  微软信箱似乎很完美,老陈也很满意。但是在一些大公司情况却完全不同!这些大公司有数以万计的信箱,每秒钟都有数以百计的信件需要处理,以至于微软信箱经常因超负荷运转而崩溃!需要重新启动!微软不得不使出杀手锏......
  微软给每个大公司派了一名名叫“Completion Port”的超级机器人,让这个机器人去处理那些信件!
  “Windows NT小组注意到这些应用程序的性能没有预料的那么高。特别的,处理很多同时的客户请求意味着很多线程并发地运行在系统中。因为所有这些线程都是可运行的[没有被挂起和等待发生什么事],Microsoft意识到NT内核花费了太多的时间来转换运行线程的上下文[Context],线程就没有得到很多CPU时间来做它们的工作。大家可能也都感觉到并行模型的瓶颈在于它为每一个客户请求都创建了一个新线程。创建线程比起创建进程开销要小,但也远不是没有开销的。我们不妨设想一下:如果事先开好N个线程,让它们在那hold[堵塞],然后可以将所有用户的请求都投递到一个消息队列中去。然后那N个线程逐一从消息队列中去取出消息并加以处理。就可以避免针对每一个用户请求都开线程。不仅减少了线程的资源,也提高了线程的利用率。理论上很不错,你想我等泛泛之辈都能想出来的问题,Microsoft又怎会没有考虑到呢?”-----摘自nonocast的《理解I/O Completion Port》
  先看一下IOCP模型的实现:
//创建一个完成端口
FCompletPort := CreateIoCompletionPort( INVALID_HANDLE_VALUE, 0,0,0 );
//接受远程连接,并把这个连接的socket句柄绑定到刚才创建的IOCP上
AConnect := accept( FListenSock, addr, len);
CreateIoCompletionPort( AConnect, FCompletPort, nil, 0 );
//创建CPU数*2 + 2个线程
for i:=1 to si.dwNumberOfProcessors*2+2 do
begin
 AThread := TRecvSendThread.Create( false );
 AThread.CompletPort := FCompletPort;//告诉这个线程,你要去这个IOCP去访问数据
end;
  就这么简单,我们要做的就是建立一个IOCP,把远程连接的socket句柄绑定到刚才创建的IOCP上,最后创建n个线程,并告诉这n个线程到这个IOCP上去访问数据就可以了。
  再看一下TRecvSendThread线程都干些什么:
procedure TRecvSendThread.Execute;
var
 ......
begin
 while (not self.Terminated) do
 begin
  //查询IOCP状态(数据读写操作是否完成)
  GetQueuedCompletionStatus( CompletPort, BytesTransd, CompletKey, POVERLAPPED(pPerIoDat), TIME_OUT );
  if BytesTransd <> 0 then
   ....;//数据读写操作完成

   //再投递一个读数据请求
   WSARecv( CompletKey, @(pPerIoDat^.BufData), 1, BytesRecv, Flags, @(pPerIoDat^.Overlap), nil );
  end;
end;
  读写线程只是简单地检查IOCP是否完成了我们投递的读写操作,如果完成了则再投递一个新的读写请求。
  应该注意到,我们创建的所有TRecvSendThread都在访问同一个IOCP(因为我们只创建了一个IOCP),并且我们没有使用临界区!难道不会产生冲突吗?不用考虑同步问题吗?
  这正是IOCP的奥妙所在。IOCP不是一个普通的对象,不需要考虑线程安全问题。它会自动调配访问它的线程:如果某个socket上有一个线程A正在访问,那么线程B的访问请求会被分配到另外一个socket。这一切都是由系统自动调配的,我们无需过问。
TCP连接方式是可以保证数据的顺序无重复到达.但不保存数据边界。
UDP不保证以上特点.但保存数据边界(数据边界我想就是可以用来区分是那一次发送)。
基于TCP方式的特点,可以认为TCP是一个流式的管道,数据是在里面连续流动的,这也是为什么无法保留数
据边界的原因,所以我们在编TCP程序的时候就有必要创建我们的数据边界,因为绝大多数程序是按一定的数据
包来处理的。因此在发送数据的过程中我们要定义一个数据包的包头(注意包头应该是定长的),比如最简单的
就是在每个发送的数据包前面加上将要发送的数据的尺寸及校验码,在接收端接收的时候先分析每个获取的数
据包的包头信息,如果包括校验码就说明这是一个包头,接着处理尺寸接收数据。

可能需要一次或多次接收才能接收一个完整的包(取决于你的当前网络环境,因为TCP有个接收窗口尺寸的问
题(它是根据网络状态自动调整的)所以可能出现一次发,多次收的情况,即使你的数据包非常小。),也可能一次
接收的数据包含两个包的信息,需要按照刚才说过的方法检测接收的数据。

对于完成端口也一样有同样的问题,因为它也是TCP方式的,解决的方法就是在接到完成信息时候使用如上的
方法对每个数据包都检测是否完整,如果不完整则暂存数据,等下一个完成信息收到后处理,此时可能有三种
情况发生,
一、新接收的数据正好是满足前一个数据包(本次接收的数据+上次接收的数据 = 包头定义的尺寸)。
二、新接收的数据还不满足前一个数据包(本次接收的数据+上次接收的数据 < 包头定义的尺寸)。
三、新接收的数据不仅满足前一数据包,还有剩余,此时还有两中可能。
(1)剩余部分>=包头尺寸。
(2)剩余部分<包头尺寸。
四、接收的数据包含部分包头数据。
那么针对以上的可能我们应该怎样处理呢?下面逐一解决:
第一种可能:
这是我们最期待的结果,可经验告诉我,这也是最少发生的可能,处理比较容易,我们只需要将数据   
  复制到缓冲中,然后唤醒处理线程或直接处理,缓冲复制完毕不要忘了再次投入一个WSARECV。
第二种可能:
复制数据到缓冲并再次投入一个WSARECV。
第三种可能:
(1)复制上一个包的数据到缓冲,执行处理,清空缓冲并复制包头数据,分析包头,记录下一数据包
   尺寸,将剩余数据复制到缓冲中并再次投入一个WSARECV。
(2)复制上一个包的数据到缓冲,执行处理,复制剩余数据到包头缓冲,并指名包头剩余数据的尺寸
   ,并再次投入一个WSARECV。
第三种可能:根据包头剩余尺寸信息填充包头缓冲,分析包头,确定剩余数据是否满足本数据包,如 >= 则按
第三种可能处理,否则按第二种可能处理。
注意:以上所提到的缓冲为我们共用缓冲,可以由多个工作线程处理,因此在缓冲的读写时要注意同步。因为
在创建完成端口的时候我们可以指定没一个CPU上的并发线程数量,同时如果系统中存在多于一个以上的CPU时
都可能出现同一个缓冲被多个工作线程使用的可能,所以必须同步。另外为什么要在包头中加校验码,是因为
如果发送方突然断电或网络不通,当重新连接后在次发送可能会导致某一个处理会将其认为是上一数据包的延
续,但通过加校验码,接收方就可以在接收到信息的数据包是检查是否为包头,就可以将上一个包丢弃,从而
避免这类错误。当然也可以通过控制信息来实现此功能,但个人认为比较麻烦,同时未来的网络速度应该不是
问题,所以使用此方法:)。
下面是针对这个例子的OVERLAPPED的扩展定义。
THeaderInfo=record
ID:Array[0..9] of char;
Size:Integer;
end;
TOVERLAPPEDEX=record
oiverlapped;
Header:THeaderInfo;//数据包头。
HeaderBuffChar;//数据包头的指针(HeaderBuff:=@Header);
HeaderLoseSize:Integer;//包头剩余的尺寸。
WorkBuffChar;//数据缓冲,应该来源于外部缓冲池。
end;
以上的定义只是用来学习,在实际应用中未过多测试。

回复

使用道具 举报

该用户从未签到

发表于 2013-5-24 13:53:35 | 显示全部楼层
很棒!
回复 支持 反对

使用道具 举报

该用户从未签到

发表于 2013-6-14 15:13:09 | 显示全部楼层
骑士先生,你好棒呀
回复 支持 反对

使用道具 举报

该用户从未签到

发表于 2014-2-4 20:32:48 | 显示全部楼层
出现表情,复制代码应该用代码括注。
回复 支持 反对

使用道具 举报

*滑块验证:

本版积分规则

QQ|手机版|小黑屋|Lazarus中国|Lazarus中文社区 ( 鄂ICP备16006501号-1 )

GMT+8, 2025-5-2 21:27 , Processed in 0.118533 second(s), 9 queries , Redis On.

Powered by Discuz! X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表