内核中的TCP的追踪分析-7-TCP(IPV4)的socket接收连接
来源:互联网 发布:移动手机信号测试软件 编辑:程序博客网 时间:2024/06/05 11:55
这一节我们开始分析如何接收TCP的socket的连接请求,象在Unix的socket分析章节一样我们先看练习中的用户界面
accept(server_sockfd, (struct sockaddr *)&client_address, client_len);
然后进入内核的系统调用函数中,这个过程请朋友们参考
http://blog.chinaunix.net/u2/64681/showart_1329029.html
的详细过程,我们直接从
err = sock->ops->accept(sock, newsock, sock->file->f_flags);
这部分开始入手分析TCP的socket是如何执行的,这里会进入inet_stream_ops中执行,可能有些朋友是直接阅读本文的,最好是看一下前面的章节理清是如何进入这个函数的,我们这里不再重复了。
const struct proto_ops inet_stream_ops = {
。。。。。。
.accept = inet_accept,
。。。。。。
};
我们再次看一下af_inet.c中的这个数据结构,很显然进入了inet_accept()函数
int inet_accept(struct socket *sock, struct socket *newsock, int flags)
{
struct sock *sk1 = sock->sk;
int err = -EINVAL;
struct sock *sk2 = sk1->sk_prot->accept(sk1, flags, &err);
if (!sk2)
goto do_err;
lock_sock(sk2);
BUG_TRAP((1 << sk2->sk_state) &
(TCPF_ESTABLISHED | TCPF_CLOSE_WAIT | TCPF_CLOSE));
sock_graft(sk2, newsock);
newsock->state = SS_CONNECTED;
err = 0;
release_sock(sk2);
do_err:
return err;
}
进入这个函数的时候已经找到了我们前面建立的socket结构,而newsock是我们新分配建立的socket结构,我们看到上面函数中执行了
struct sock *sk2 = sk1->sk_prot->accept(sk1, flags, &err);
进而进入了钩子函数中执行,
参考http://blog.chinaunix.net/u2/64681/showart_1360583.html 那里的struct proto tcp_prot结构变量可以看到
struct proto tcp_prot = {
。。。。。。
.accept = inet_csk_accept,
。。。。。。
};
很显然是执行的inet_csk_accept()函数
struct sock *inet_csk_accept(struct sock *sk, int flags, int *err)
{
struct inet_connection_sock *icsk = inet_csk(sk);
struct sock *newsk;
int error;
lock_sock(sk);
/* We need to make sure that this socket is listening,
* and that it has something pending.
*/
error = -EINVAL;
if (sk->sk_state != TCP_LISTEN)
goto out_err;
/* Find already established connection */
if (reqsk_queue_empty(&icsk->icsk_accept_queue)) {
long timeo = sock_rcvtimeo(sk, flags & O_NONBLOCK);
/* If this is a non blocking socket don't sleep */
error = -EAGAIN;
if (!timeo)
goto out_err;
error = inet_csk_wait_for_connect(sk, timeo);
if (error)
goto out_err;
}
newsk = reqsk_queue_get_child(&icsk->icsk_accept_queue, sk);
BUG_TRAP(newsk->sk_state != TCP_SYN_RECV);
out:
release_sock(sk);
return newsk;
out_err:
newsk = NULL;
*err = error;
goto out;
}
象往常叙述的一样首先是在sock中取得struct inet_connection_sock结构,然后判断一下sock的状态是否已经处于监听状态,如果没有处于监听状态的话就不能接收了,只好出错返回了。接着是检查icsk中的icsk_accept_queue请求队列是否为空,因为我们练习中还未启动客户端程序,所以此时还没有连接请求到来,这个队列现在是空的,所以进入if语句,sock_rcvtimeo()是根据是否允许“阻塞”即等待,而取得sock结构中的sk_rcvtimeo时间值,然后根据这个值进入inet_csk_wait_for_connect()函数中
static int inet_csk_wait_for_connect(struct sock *sk, long timeo)
{
struct inet_connection_sock *icsk = inet_csk(sk);
DEFINE_WAIT(wait);
int err;
/*
* True wake-one mechanism for incoming connections: only
* one process gets woken up, not the 'whole herd'.
* Since we do not 'race & poll' for established sockets
* anymore, the common case will execute the loop only once.
*
* Subtle issue: "add_wait_queue_exclusive()" will be added
* after any current non-exclusive waiters, and we know that
* it will always _stay_ after any new non-exclusive waiters
* because all non-exclusive waiters are added at the
* beginning of the wait-queue. As such, it's ok to "drop"
* our exclusiveness temporarily when we get woken up without
* having to remove and re-insert us on the wait queue.
*/
for (;;) {
prepare_to_wait_exclusive(sk->sk_sleep, &wait,
TASK_INTERRUPTIBLE);
release_sock(sk);
if (reqsk_queue_empty(&icsk->icsk_accept_queue))
timeo = schedule_timeout(timeo);
lock_sock(sk);
err = 0;
if (!reqsk_queue_empty(&icsk->icsk_accept_queue))
break;
err = -EINVAL;
if (sk->sk_state != TCP_LISTEN)
break;
err = sock_intr_errno(timeo);
if (signal_pending(current))
break;
err = -EAGAIN;
if (!timeo)
break;
}
finish_wait(sk->sk_sleep, &wait);
return err;
}
函数首先是调用了宏来声明一个等待队列
#define DEFINE_WAIT(name) \
wait_queue_t name = { \
.private = current, \
.func = autoremove_wake_function, \
.task_list = LIST_HEAD_INIT((name).task_list), \
}
关于等待队列的具体概念我们留在以后专门的章节中论述,这里可以看出是根据当前进程而建立的名为wait的等待队列,接着函数中调用了
void
prepare_to_wait_exclusive(wait_queue_head_t *q, wait_queue_t *wait, int state)
{
unsigned long flags;
wait->flags |= WQ_FLAG_EXCLUSIVE;
spin_lock_irqsave(&q->lock, flags);
if (list_empty(&wait->task_list))
__add_wait_queue_tail(q, wait);
/*
* don't alter the task state if this is just going to
* queue an async wait queue callback
*/
if (is_sync_wait(wait))
set_current_state(state);
spin_unlock_irqrestore(&q->lock, flags);
}
上面函数我们已经在
http://blog.chinaunix.net/u2/64681/showart_1329029.html
那一节中看到过了比较详细的分析了,这个函数与我们所说的等待队列部分内容是密切相关的,我们只简单的叙述一下,函数中主要是将我们上面建立的等待队列插入到这里的
sock
结构中的
sk_sleep
所指定的等待队列头中,此后再次调用
reqsk_queue_empty
()函数检查一下
icsk_accept_queue
是否为空,如果还为空就说明没有连接请求到来,开始睡眠等待了,
schedule_timeout
()我们先放一放,这个函数与时钟密切相关,所以在以后再看,这里是根据我们上面得到的定时时间来进入睡眠的。当从这个函数返回时,再次锁住
sock
防止其他进程打扰,然后这里还是判断一下
icsk_accept_queue
是否为空,如果还为空的话就要跳出
for
循环了,醒来后还要检查一下是否是因为信号而醒来的,如果有信号就要处理信号
signal_pending
(),这个函数在以后的信号内容叙述,最后如果睡眠的时间已经用完了也会跳出循环,跳出循环后就要将这里的等待队列从
sock
中的
sk_sleep
中摘链。
我们回到
inet_csk_accept
()函数中继续往下看,如果这时队列
icsk_accept_queue
不为空,即有连接请求到来怎么办呢,继续看下面的代码
newsk = reqsk_queue_get_child(&icsk->icsk_accept_queue, sk);
这里看到是进入了reqsk_queue_get_child函数中
static inline struct sock *reqsk_queue_get_child(struct request_sock_queue *queue,
struct sock *parent)
{
struct request_sock *req = reqsk_queue_remove(queue);
struct sock *child = req->sk;
BUG_TRAP(child != NULL);
sk_acceptq_removed(parent);
__reqsk_free(req);
return child;
}
函数中首先是调用了
reqsk_queue_remove
()从队列中摘下一个已经到来的request_sock结构
static inline struct request_sock *reqsk_queue_remove(struct request_sock_queue *queue)
{
struct request_sock *req = queue->rskq_accept_head;
BUG_TRAP(req != NULL);
queue->rskq_accept_head = req->dl_next;
if (queue->rskq_accept_head == NULL)
queue->rskq_accept_tail = NULL;
return req;
}
很明显上面函数中是从队列的rskq_accept_head摘下一个已经到来的request_sock这个结构是从客户端请求连接时挂入的,reqsk_queue_get_child()函数在这里把request_sock中载运的sock结构返回到inet_csk_accept中的局部变量newsk使用。而sk_acceptq_removed是递减我们服务器端sock中的sk_ack_backlog。然后__reqsk_free释放掉request_sock结构。回到inet_csk_accept函数中,然后返回我们间接从icsk->icsk_accept_queue队列中获得了与客户端密切相关的sock结构。这个与客户端密切相关的结构是由我们服务器端在响应底层驱动的数据包过程中建立的,我们将在后边讲解完客户端的连接请求把这一过程补上,这里假设我们已经接收到了客户端的数据包并且服务器端为此专门建了这个与客户端数据包相联系的sock结构,接着返回到sys_accept()函数中,具体的过程请看http://blog.chinaunix.net/u2/64681/showart_1329029.html 我们在练习中看到需要获得客户端的地址,在那个章节中我们又走到了
newsock->ops->getname(newsock, (struct sockaddr )address, &len, 2)
这要看我们在sys_accpet()函数中新创建的newsock的ops钩子结构了,很明显我们在sys_accept()函数中看到了newsock->ops = sock->ops;所以newsock是使用的已经建立的服务器端的inet_stream_ops结构变量,我们可以在这个结构中看到
const struct proto_ops inet_stream_ops = {
。。。。。。
.getname = inet_getname,
。。。。。。
};
因此进入了inet_getname()函数,这个函数在/net/ipv4/af_inet.c中的683行处。
int inet_getname(struct socket *sock, struct sockaddr *uaddr,
int *uaddr_len, int peer)
{
struct sock *sk = sock->sk;
struct inet_sock *inet = inet_sk(sk);
struct sockaddr_in *sin = (struct sockaddr_in *)uaddr;
sin->sin_family = AF_INET;
if (peer) {
if (!inet->dport ||
(((1 << sk->sk_state) & (TCPF_CLOSE | TCPF_SYN_SENT)) &&
peer == 1))
return -ENOTCONN;
sin->sin_port = inet->dport;
sin->sin_addr.s_addr = inet->daddr;
} else {
__be32 addr = inet->rcv_saddr;
if (!addr)
addr = inet->saddr;
sin->sin_port = inet->sport;
sin->sin_addr.s_addr = addr;
}
memset(sin->sin_zero, 0, sizeof(sin->sin_zero));
*uaddr_len = sizeof(*sin);
return 0;
}
在上面的代码中,关键的是这二句
sin->sin_port = inet->dport;
sin->sin_addr.s_addr = inet->daddr;
这里直接将我们练习中的client_address转换成tcp的地址结构struct sockaddr_in指针,然后直接用上面二句赋值了,我们看到他是使用的我们刚刚提到的从icsk->icsk_accept_queue接收队列中得到的sock进而得到了inet_sock专用于INET的sock结构
struct inet_sock {
/* sk and pinet6 has to be the first two members of inet_sock */
struct sock sk;
#if defined(CONFIG_IPV6) || defined(CONFIG_IPV6_MODULE)
struct ipv6_pinfo *pinet6;
#endif
/* Socket demultiplex comparisons on incoming packets. */
__be32 daddr;
__be32 rcv_saddr;
__be16 dport;
__u16 num;
__be32 saddr;
__s16 uc_ttl;
__u16 cmsg_flags;
struct ip_options *opt;
__be16 sport;
__u16 id;
__u8 tos;
__u8 mc_ttl;
__u8 pmtudisc;
__u8 recverr:1,
is_icsk:1,
freebind:1,
hdrincl:1,
mc_loop:1;
int mc_index;
__be32 mc_addr;
struct ip_mc_socklist *mc_list;
struct {
unsigned int flags;
unsigned int fragsize;
struct ip_options *opt;
struct dst_entry *dst;
int length; /* Total length of all frames */
__be32 addr;
struct flowi fl;
} cork;
};
这个结构中的头一个变量就是sock结构,所以这里直接将sock的地址做为inet_sock结构的开始是完全可以的,这也就是inet_sk()这个函数的主要作用
static inline struct inet_sock *inet_sk(const struct sock *sk)
{
return (struct inet_sock *)sk;
}
那么可能会有朋友问我们只是从icsk->icsk_accept_queue接收队列中间接得到了sock结构指针并没有看到inet_sock结构指针啊?请朋友们相信我们在后边叙述完了客户端的连接请求过程后会把这部分给补上的,所以这里的inet_sock肯定是在服务器的底层驱动相关的部分完成的,我们将在完成客户端的连接后分析这部分的关键内容。所以我们看到这里将inet_sock结构中的请求方即客户端的端口和地址间接设置进了应用程序的地址结构变量client_address就取得了客户端的地址,至于sys_accept()函数余下的过程就完全与unix的socket连接过程完全一样了,我们不重复了,请朋友们看http://blog.chinaunix.net/u2/64681/showart_1329029.html 结尾部分。
转自:http://blog.chinaunix.net/uid-7960587-id-2035553.html
- 内核中的TCP的追踪分析-7-TCP(IPV4)的socket接收连接
- 内核中的TCP的追踪分析-8-TCP(IPV4)的socket连接
- 内核中的TCP的追踪分析-9-TCP(IPV4)的socket连接-续1
- 内核中的TCP的追踪分析-10-TCP(IPV4)的socket连接-续2
- 内核中的TCP的追踪分析-1-追踪TCP(IPV4)的socket的初始化
- 内核中的TCP的追踪分析-2-追踪TCP(IPV4)的socket的创建
- 内核中的TCP的追踪分析-3-TCP(IPV4)的socket的地址绑定
- 内核中的TCP的追踪分析-5-再谈TCP(IPV4)的socket的地址绑定
- 内核中的TCP的追踪分析-6-TCP(IPV4)的socket的监听
- 内核中的TCP的追踪分析-4-TCP(IPV4)的socket的地址绑定-续
- 内核中的TCP的追踪分析-9-TCP(IPV4)的socket的地址绑定--续2
- TCP socket ipv6与ipv4的区别
- 12-socket的实践到内核--TCP的socket数据的接收
- 12-socket的实践到内核--TCP的socket数据的接收
- TCP的socket连接示例
- TCP的socket连接示例
- TCP的socket连接示例
- TCP的socket连接示例
- My First Blog
- Server.UrlEncode与HttpUtility.UrlDecode使用
- 将Excel表内容导进SQL2008中
- log4j 集合框架小记~
- 检测sqlserver2005性能瓶颈
- 内核中的TCP的追踪分析-7-TCP(IPV4)的socket接收连接
- 内核中的TCP的追踪分析-8-TCP(IPV4)的socket连接
- 学习国际化资源配置1.
- .net学习之多线程的学习
- Web编辑器
- ASP.NET中常用的文件上传下载方法
- 实现CString到std::string的转换
- C# 视频监控系列(3):客户端——连接服务器并预览
- 23种设计模式(8):观察者模式