Binder学习一——基础数据结构

来源:互联网 发布:goodsync mac 编辑:程序博客网 时间:2024/05/16 01:08

在看Binder源码时,总是接触到很多这些莫名其妙的struct,故依据几本参考资料先把这些数据结构的意义即关系整理以下:
/* \kernel\goldfish\drivers\staging\android\binder.c/
1、binder_work:

//表示binder驱动中进程所要处理的工作项struct binder_work {    struct list_head entry;             //用于实现一个双向链表,存储所有binder_work的队列    enum {        BINDER_WORK_TRANSACTION = 1,        BINDER_WORK_TRANSACTION_COMPLETE,        BINDER_WORK_NODE,        BINDER_WORK_DEAD_BINDER,        BINDER_WORK_DEAD_BINDER_AND_CLEAR,        BINDER_WORK_CLEAR_DEATH_NOTIFICATION,    } type;                            //描述工作项的类型};

2、binder_thread:

//存储Binder线程池中的每个线程的信息struct binder_thread {    struct binder_proc *proc;               //宿主进程,即线程属于哪个Binder进程    struct rb_node rb_node;                 //红黑树中的一个节点,binder_proc使用红黑树来组织Binder线程池中的线程                  int pid;                                //当期线程PID    int looper;                             //当前线程状态信息    struct binder_transaction *transaction_stack;//事务堆栈,将事务封装成binder_transaction,添加到事务堆栈中,定义了要接收和发送的进程和线程消息    struct list_head todo;                  //队列,当有来自Client的请求时,将会添加到to_do队列中    uint32_t return_error;                  //记录处理事务时出现异常错误情况信息    uint32_t return_error2;    wait_queue_head_t wait;                 /* 等待队列,当Binder处理T1事务依赖于其他Binder线程处理事务T2时,                                                                                                                                                                                                           则会sleep在wait所描述的等待队列中,直至T2事务处理完成再唤醒*/    struct binder_stats stats;              //Binder线程相关统计数据};//looper状态值enum {    BINDER_LOOPER_STATE_REGISTERED  = 0x01, //Binder驱动请求创建该线程,通过BC_REGISTER_LOOPER协议通知Binder驱动,注册成功设为此状态    BINDER_LOOPER_STATE_ENTERED     = 0x02, //该线程是应用程序主动注册的,            BC_ENTER_LOOPER    BINDER_LOOPER_STATE_EXITED      = 0x04, //Binder线程退出,   BC_EXIT_LOOPER    BINDER_LOOPER_STATE_INVALID     = 0x08, //异常情况    BINDER_LOOPER_STATE_WAITING     = 0x10, //Binder线程处于空闲状态    BINDER_LOOPER_STATE_NEED_RETURN = 0x20  /*表示该线程需要马上返回到用户空间中,使用情形 :                                                                                                                                                    一:线程注册成为Binder线程后,还没准备好去处理进程间通信,需要返回用户空间做其他初始化等准备                                                                                                                                                 二:进程调用flush来刷新Binder线程池*/};

3、binder_stats:

//Binder线程相关统计计数struct binder_stats {    int br[_IOC_NR(BR_FAILED_REPLY) + 1];     // 用于存储BINDER_WRITE_READ读操作命令协议    int bc[_IOC_NR(BC_DEAD_BINDER_DONE) + 1]; // 用于存储BINDER_WRITE_READ写操作命令协议    int obj_created[BINDER_STAT_COUNT];       // 保存对象计数    int obj_deleted[BINDER_STAT_COUNT];};

4、binder_proc:

/** 描述一个正在使用Binder进程通信的进程,binder_proc为管理其信息的记录体 *  当一个进程open /dev/binder时,Binder驱动程序会为其创建一个binder_proc结构体,用以记录该进程的所有相关信息 *  并把该结构体保存到一个全局的hash表中*/struct binder_proc {    /** 进程相关参数*/    struct hlist_node proc_node;         // 上述全局hash表中的一个节点,用以标记该进程    int pid;                             // 进程组ID    struct task_struct *tsk;             // 任务控制模块    struct files_struct *files;          // 文件结构体数组    /** Binder线程池——每一个Binder进程都有一个线程池,由Binder驱动程序来维护     *  Binder线程池中所有线程由一个红黑树来组织,RB树以线程ID为关键字;*/    struct rb_root threads;              // 上述红黑树根节点    /* 进程可以调用ioctl注册线程到Binder驱动程序中;当线程池中没有足够空闲线程来处理事务时,     * Binder驱动程序可以主动要求进程注册更多的线程到Binder线程池中*/    int max_threads;                     // Binder驱动程序最多可以请求进程注册的线程的数量    int requested_threads;               // Binder驱动程序每主动请求进程添加注册一个线程时,requested_threads加1    int requested_threads_started;       // 进程响应Binder要求后,requested_threads_started + 1;requested_threads - 1                                         // 表示Binder已经主动请求注册的线程数目    int ready_threads;                   // 进程当前空闲Binder线程数目    long default_priority;               // 线程优先级,初始化为进程优先级    /** 一系列Binder实体对象(binder_node)和Binder引用对象(binder_ref)        老罗对此做的概念区分:        1. 在用户空间,运行在Server端的称为Binder本地对象,运行在Client端的称为Binder代理对象。        2. 在内核空间,Binder实体对象用来描述Binder本地对象,Binder引用对象用来描述Binder代理对象。*/    struct rb_root nodes;                // Binder实体对象列表(RB树),关键字ptr    struct rb_root refs_by_desc;         // Binder引用对象,关键字desc    struct rb_root refs_by_node;         // Binder引用对象,关键字node    /** mmap内核缓冲区*/    struct vm_area_struct *vma;          // mmap——分配的内核缓冲区  用户空间地址(相较于buffer)    void *buffer;                        // mmap——分配的内核缓冲区  内核空间地址(相较于vma)(两者都是虚拟地址)    ptrdiff_t user_buffer_offset;        // mmap——buffer与vma之间的差值    /** buffer指向的内核缓冲区,被划分成很多小块进行管理;这些小块保存在列表中,buffers就是列表头部*/    struct list_head buffers;            // 内核缓冲区列表    struct rb_root free_buffers;         // 空闲的内存缓冲区(红黑树)    struct rb_root allocated_buffers;    // 正在使用的内存缓冲区(红黑树)    size_t free_async_space;             // 当前可用来保存异步事务数据的内核缓冲区大小    struct page **pages;                 // 对应于vma、buffer虚拟地址,这里是它们对应的物理页面    size_t buffer_size;                  // 内核缓冲区大小    uint32_t buffer_free;                // 空闲内核缓冲区大小    /** 进程每接收到一个通信请求,Binder将其封装成一个工作项,保存在待处理队列to_do中*/    struct list_head todo;               // 待处理工作队列                         wait_queue_head_t wait;              // 等待队列,存放一些睡眠的空闲Binder线程    struct hlist_node deferred_work_node;// hash表,保存进程中可以延迟执行的工作项    int deferred_work;                   // 延迟工作项的具体类型    struct binder_stats stats;           // 统计进程相关数据,具体参见binder_stats结构    struct list_head delivered_death;    // 表示Binder驱动程序正在向进程发送的死亡通知 };

5、binder_node:

/** 描述一个Binder实体对象,每一个Service组件在Binder驱动程序中都对应一个Binder实体对象 *  Binder驱动程序通过强引用和弱引用计数来维护其生命周期*/struct binder_node {    int debug_id;                      // 用以调试    struct binder_work work;           //    /** 每一个binder进程都由一个binder_proc来描述     *  binder进程内部所有Binder实体对象,由一个红黑树进行组织(struct rb_root nodes)     *  rb_node则对应nodes其中的一个节点*/    union {        struct rb_node rb_node;        // 用于将本节点连接点红黑树中        struct hlist_node dead_node;   /* 如果Binder实体对象对应的进程死亡,销毁节点时需要将rb_node从红黑树中删除,                                          如果本节点还有引用没有切断,则用dead_node 将其隔离到另一个链表中,                                          直到通知所有进程切断与该节点的引用后,该节点才能销毁*/    };    /*  binder_proc 和 binder_node 关系:     *  可以将binder_proc理解为一个进程,而将binder_node理解为一个Service。     *  binder_proc里面有一个红黑树,用来保存所有在它所描述的进程里面创建的Service,     *  而每一个Service在Binder驱动程序里面都用一个binder_node来描述。     * */    struct binder_proc *proc;          // 指向该Binder实体对象对应的进程,进程由binder_proc描述    struct hlist_head refs;            /* 该Bidner实体对象可能同时被多个Client组件引用,所有指向本实体对象的引用都保存到这个hash队列中                                          refs表示队列头部;这些引用可能隶属不同进程,遍历该hash表能够得到哪些Client组件引用了该对象*/    /** 引用计数     *  1、当一个Bidner实体对象请求一个Service组件来执行Bidner操作时。会增加该Service组件的强/弱引用计数     *    同时,Binder实体对象会将has_strong_ref与has_weak_ref置为1     *  2、当一个Service组件完成一个Binder实体对象请求的操作后,Binder对象会请求减少该Service组件的强/弱引用计数     *  3、Binder实体对象在请求一个Service组件增加或减少强/弱引用计数的过程中,会将pending_strong_ref和pending_weak_ref置为1     *    当Service组件完成增加或减少计数时,Binder实体对象会将这两个变量置为0*/    int internal_strong_refs;          // 强引用计数    int local_weak_refs;               // 弱引用计数    int local_strong_refs;             // 强引用计数    unsigned has_strong_ref : 1;    unsigned pending_strong_ref : 1;    unsigned has_weak_ref : 1;    unsigned pending_weak_ref : 1;    /** 用来描述用户空间中的一个Service组件*/    void __user *ptr;                  // 指向该Service组件内部的一个引用计数对象(weakref_impl)的地址??    void __user *cookie;               // 指向该Service组件的地址    /** 异步事务处理,目的在于为同步交互让路,避免长时间阻塞发送端     *  异步事务的定义:(相对于同步事务)单向的进程间通信要求,即不需要等待应答的进程间通信请求     *  Binder驱动程序认为异步事务的优先级低于同步事务,则在同一时刻,一个Binder实体对象至多只有一个异步事务会得到处理;而同步事务则无此限制     *     *  Binder将事务保存在一个线程binder_thread的todo队列中,表示由该线程来处理该事务     *  每一个事务都关联Binder实体对象(union target),表示该事务的目标处理对象,表示要求该Binder实体对象对应的Serice组件在指定线程中处理该事务     *  而如果Binder发现一个事务是异步事务,则会将其保存在目标Binder实体对象的async_todo的异步事务队列中等待处理*/    unsigned has_async_transaction : 1;// 描述该Binder实体对象是否正在处理一个异步事务,1 表示是    struct list_head async_todo;    /* 表示该Binder实体对象能否接收包含有该文件描述符的进程间通信数据。     * 当一个进程向另一个进程发送数据中包含文件描述符时,Binder会在目标进程中打开一个相同的文件     * 故设为accept_fds为0可以防止源进程在目标进程中打开文件*/    unsigned accept_fds : 1;    int min_priority : 8;              // 处理Binder请求的线程的最低优先级};

6、binder_ref:

/** 用来描述一个Binder引用对象,每一个Client组件在Binder驱动程序中都有一个Binder引用对象,用来描述它在内核中的状态*/struct binder_ref {    /* Lookups needed: */    /*   node + proc => ref (transaction) */    /*   desc + proc => ref (transaction, inc/dec ref) */    /*   node => refs + procs (proc exit) */    int debug_id;                    // 用以调试    /** binder_proc中使用红黑树(对应两个rb_root变量)来存储其内部所有的引用对象     *  下面rb_node则是红黑树中的节点*/    struct binder_proc *proc;        // Binder引用对象的宿主进程    struct rb_node rb_node_desc;     // 对应refs_by_desc,以句柄desc索引       struct rb_node rb_node_node;     // 对应refs_by_node,以node索引    /** Client通过Binder访问Service时,仅需指定一个句柄值,Binder通过该desc找到对应binder_ref,再根据该     *  binder_ref中的node变量得到binder_node(实体对象),进而找到对应的Service组件*/    struct hlist_nod enode_entry;    // 对应Binder实体对象中(hlist_head)refs引用对象队列中的一个节点    struct binder_node *node;        // 引用对象所指向的Binder实体对象    uint32_t desc;                   // 句柄,用以描述该Binder引用对象    // 强弱引用计数    int strong;    int weak;    /* 表示Service组件接收到死亡通知;*/    struct binder_ref_death *death;};

7、binder_ref_death:

// 一个死亡通知结构体/** 易知Client组件无法控制他所引用的Service组件的生命周期,由于Service组件所在进程可能意外崩溃 *  Client进程就需要能够在它所引用的Service组件死亡时获得通知,进而进行响应。 *  则Client进程就需要向Binder驱动程注册一个用来接收死亡通知的对象地址(这里的cookie)*/struct binder_ref_death {    struct binder_work work;// 标志该通知具体的死亡类型    void __user *cookie;    // 保存负责接收死亡通知的对象地址};/** Binder驱动向Client进程发送死亡通知的情形如下: *  1、Binder驱动监测到Service组件死亡时,会找到对应Service实体对象(binder_node),再通过refs变量找到引用它的所有Client进程(binder_ref) *    再通过death变量找到Client进程向Binder注册的死亡通知接收地址; *    Binder将该死亡通知binder_ref_death封装成工作项,添加到Client进程的to_do队列中等待处理。 *    这种情况binder_work类型为BINDER_WORK_DEAD_BINDER *  2、Client进程向Binder驱动程序注册一个死亡接收通知时 *    如果它所引用的Service组件已经死亡,Binder会立即发送通知给Client进程; *    这种情况binder_work类型为BINDER_WORK_DEAD_BINDER *    *  3、当Client进程向Binder驱动程序注销一个死亡通知时,也会发送通知,来响应注销结果 *    1)当Client注销时,Service组件还未死亡:Binder会找到之前Client注册的binder_ref_death, *    将binder_work修改为BINDER_CLEAR_DEATH_NOTIFICATION,并将通知按上述步骤添加到Client的to_do对列中 *    2)当Client注销时,Service组件已经死亡,Binder同理将binder_work修改为WORK_DEAD_BINDER_AND_CLEAR,然后添加到todo中 *    */

8、binder_state:

struct binder_state{    int fd;           //打开/dev/binder之后得到的文件描述符    void *mapped;     //mmap将设备文件映射到本进程的地址空间中,映射后得到的地址空间地址、及大小    size_t mapsize;};

9、binder_buffer

/** 内核缓冲区,用以在进程间传递数据 *  回顾binder_proc中的vma与buffers(内核缓冲区列表)*/struct binder_buffer {    // entry对应内核缓冲区列表buffers中的一个节点    struct list_head entry; /* free and allocated entries by addesss */    /** 结合free,如果free=1,则rb_node对应free_buffers中一个节点(空闲内核缓冲区)     *          如果free!=1,则对应allocated_buffers中一个节点*/    struct rb_node rb_node; /* free entry by size or allocated entry */    unsigned free : 1;    /** Binder将事务数据保存到一个内核缓冲区中(binder_transaction.buffer),然后交由Binder实体对象(target_node)处理     *  而target_node会将缓冲区的内容交给对应的Service组件(proc)来处理     *  Service组件处理完事务后,若allow_user_free=1,则请求Binder释放该内核缓冲区*/    unsigned allow_user_free : 1;    struct binder_transaction *transaction;// 描述一个内核缓冲区正在交给哪个事务transaction,用以中转请求和返回结果    struct binder_node *target_node;       // 描述该缓冲区正在被哪个Binder实体对象使用    unsigned async_transaction : 1;        // 1表示事务是异步的;异步事务的内核缓冲区大小是受限的,这样可以保证同步事务可以优先得到缓冲区    unsigned debug_id : 29;                // 用以调试    /** 存储通信数据,通信数据中有两种类型数据:普通数据与Binder对象,     *  在数据缓冲区最后,有一个偏移数组,记录数据缓冲区中每一个Binder对象在缓冲区中的偏移地址*/    size_t data_size;                      // 数据缓冲区大小    size_t offsets_size;                   // 偏移数组的大小(其实也是偏移位置)    uint8_t data[0];                       // 用以保存通信数据,数据缓存区,大小可变};

10、binder_transaction:

//描述进程间通信,这个过程称为一个transaction(事务),用以中转请求和返回结果,并保存接收和要发送的进程信息struct binder_transaction {    int debug_id;    struct binder_work work;                // 用来描述待处理的工作项,这里会将其type设置为BINDER_WORK_TRANSACTION,具体结构见binder_work    /** 源线程*/    struct binder_thread *from;             // 源线程,即发起事务的线程    long    priority;                       // 源线程的优先级    uid_t   sender_euid;                    // 源线程的用户ID    /** 目标线程*/    struct binder_proc *to_proc;            // 目标进程,处理该事务的进程(process)    struct binder_thread *to_thread;        // 目标线程:处理该事务的线程    /** 《源代码分析》中的例子:线程A发起事务T1,需要由B线程处理;B处理T1时,需要C先处理T2;C处理T2时,又需要A处理T1;     *  则T1依赖于T2,T2依赖于T3; A 要处理T1,T3,但要先处理T3     *  故:  T2->from_parent = T1     *     T3->from_parent = T2     *     T3->to_parent = T1*/    struct binder_transaction *from_parent; // 表示另一个事务需要依赖该事务(不一定在同一线程中)    struct binder_transaction *to_parent;   // 目标线程下一个需要处理的事务    unsigned need_reply : 1;                // 标志事务是同步/异步;设为1——表示同步事务,需要等待对方回复;设为0——异步    /*unsigned is_dead : 1;*//* not used at the moment */    /** 参照binder_buffer中解释,指向Binder为该事务分配的内核缓冲区     *  code与flags参见binder_transaction_data */    struct binder_buffer *buffer;              unsigned int    code;    unsigned int    flags;    /** 目标线程处理事务前,Binder需要修改其priority;修改前需要将线程原来的priority保存到saved_priority中,用以处理完事务恢复到原来优先级     *  优先级的设置:目标线程处理事务时,优先级应不低于目标Service组件要求的线程优先级,也不低于源线程的优先级;故设为两者的较大值*/    long    saved_priority;};

11、binder_transaction_data

/* 描述进程间通信所传输的数据: * Binder对象的传递是通过binder_transaction_data来实现的, * 即Binder对象实际是封装在binder_transaction_data结构体中。*/struct binder_transaction_data {    /** 有一个联合体target,当这个BINDER_WRITE_READ命令的目标对象是本地Binder实体时,                            就使用ptr来表示这个对象在本进程中的地址,否则就使用handle来表示这个Binder实体的引用。        只有目标对象是Binder实体时,cookie成员变量才有意义,表示一些附加数据;        详细的解释为:传输的数据是一个复用数据联合体,对于BINDER类型,数据就是一个binder本地对象,        如果是HANDLE类型,这数据就是一个远程的handle对象。该如何理解本地binder对象和远程handle对象呢?        其实它们都指向同一个对象,不过是从不同的角度来说。举例来说,假如A有个对象X,对于A来说,        X就是一个本地的binder对象;如果B想访问A的X对象,这对于B来说,X就是一个handle。        因此,从根本上来说handle和binder都指向X。本地对象还可以带有额外的数据,保存在cookie中。 */    union {        size_t  handle;/* target descriptor of command transaction */        void    *ptr;   /* target descriptor of return transaction */    } target;    //Binder实体带有的附加数据    void        *cookie;    /* target object cookie */    //code是一个命令,描述了请求Binder对象执行的操作,表示要对目标对象请求的命令代码    unsigned int    code;       /* transaction command */    /* transaction的基本信息*/    //事务标志,见transaction_flags    unsigned int    flags;    pid_t       sender_pid;     // 发起请求的进程PID    uid_t       sender_euid;    // 发起请求的进程UID    size_t      data_size;      //data.buffer缓冲区的大小,data见最下面定义;命令的真正要传输的数据就保存在data.buffer缓冲区中    size_t      offsets_size;   //data.offsets缓冲区的大小    union {        struct {            /* transaction data */            const void  *buffer;            /* offsets from buffer to flat_binder_object structs */            const void  *offsets;        } ptr;        uint8_t buf[8];    } data;    /**   命令的真正要传输的数据就保存在data.buffer缓冲区中,前面的一成员变量都是一些用来描述数据的特征的。     data.buffer所表示的缓冲区数据分为两类,一类是普通数据,Binder驱动程序不关心,     一类是Binder实体或者Binder引用,这需要Binder驱动程序介入处理。为什么呢?        想想,如果一个进程A传递了一个Binder实体或Binder引用给进程B,那么,     Binder驱动程序就需要介入维护这个Binder实体或者引用的引用计数,防止B进程还在使用这个Binder实体时,     A却销毁这个实体,这样的话,B进程就会crash了。所以在传输数据时,如果数据中含有Binder实体和Binder引和,     就需要告诉Binder驱动程序它们的具体位置,以便Binder驱动程序能够去维护它们。     data.offsets的作用就在这里了,它指定在data.buffer缓冲区中,所有Binder实体或者引用的偏移位置。    注::    进程间传输的数据被称为Binder对象(Binder Object),    它是一个flat_binder_object。Binder对象的传递是通过binder_transaction_data来实现的,    即Binder对象实际是封装在binder_transaction_data结构体中。*/};

12、transaction_flags

/* transaction_flags描述了传输方式,比如同步、异步等*/enum transaction_flags {    TF_ONE_WAY  = 0x01,    /* 当前事务异步,不需要等待*/    TF_ROOT_OBJECT  = 0x04,/* 包含内容是根对象(暂未使用)*/    TF_STATUS_CODE  = 0x08,/* 表示data所描述的数据缓冲区内同是一个4bit状态吗*/    TF_ACCEPT_FDS   = 0x10,/* 允许数据中包含文件描述符*/};

13、flat_binder_object

struct flat_binder_object {    /* 8 bytes for large_flat_header. */    unsigned long       type;  //Binder对象的类型    unsigned long       flags; //Binder对象的标志    /* 8 bytes of data. */    union {        void        *binder;    /* local object */        signed long handle;     /* remote object */    };    /* extra data associated with local object */    void            *cookie;};

14、binder_write_read:

/* * On 64-bit platforms where user code may run in 32-bits the driver must * translate the buffer (and local binder) addresses apropriately. *//** \kernel\goldfish\drivers\staging\android\binder.h *  描述进程间通信过程中所传输的数据*/struct binder_write_read {    /** 输入数据——从用户空间传输到Binder驱动程序的数据,     *  数据协议代码为命令协议代码,由BinderDriverCommandProtocol定义*/    signed long write_size;    signed long write_consumed;  // 记录从缓冲区取了多少字节的数据    unsigned long   write_buffer; // 指向一个用户空间缓冲区的地址,里面的内容即为输入数据,大小由wirte_size指定    /** 输出数据,从Binder驱动程序,返回给用户空间的数据,     *  数据协议代码为返回协议代码,由BinderDriverReturnProtocol定义*/    signed long read_size;     signed long read_consumed;  // 从read_buffer中读取的数据量    unsigned long   read_buffer; // 指向用户缓冲区一个地址,里面保存输出数据};

15、BinderDriverCommandProtocol协议

/** \kernel\goldfish\drivers\staging\android\binder.h *  BC命令协议*/enum BinderDriverCommandProtocol {    /** 这两个命令数据类型为binder_transaction_data,是最常用到的*/    // 一个Client进程请求目标进程执行某个事务时,会使用BC_TRANSACTION请求Binder驱动程序将通信数据传递到Server目标进程    // 使用者:Client进程  用处:传递数据    BC_TRANSACTION = _IOW('c', 0, struct binder_transaction_data),    // 当Server目标进程处理完事务后,会使用BC_REPLY请求Binder将结果数据返回给Cliet源进程    // 使用者:Server进程, 用处:返回数据    BC_REPLY = _IOW('c', 1, struct binder_transaction_data),    // 当前版本not support    BC_ACQUIRE_RESULT = _IOW('c', 2, int),    /** 数据类型为int,指向Binder内部一块内核缓冲区     *  目标进程处理完源进程事务后,会使用使用BC_FREE_BUFFER来释放缓冲区*/    BC_FREE_BUFFER = _IOW('c', 3, int),    /** 通信数据为int类型,表示binder_ref的句柄值handle     *  前面两个是增加/减少弱引用计数     *  后面两个是增加/减少强引用计数*/    BC_INCREFS = _IOW('c', 4, int),    BC_DECREFS = _IOW('c', 7, int),    BC_ACQUIRE = _IOW('c', 5, int),    BC_RELEASE = _IOW('c', 6, int),    /** Server进程完成增加强/弱引用计数后,会使用这两个命令通知Binder*/    BC_INCREFS_DONE = _IOW('c', 8, struct binder_ptr_cookie),    BC_ACQUIRE_DONE = _IOW('c', 9, struct binder_ptr_cookie),    // 当前不支持    BC_ATTEMPT_ACQUIRE = _IOW('c', 10, struct binder_pri_desc),    /** Binder驱动程序请求进程注册一个线程到它的线程池中,新建立线程会使用BC_REGISTER_LOOPER来通知Binder其准备就绪*/    BC_REGISTER_LOOPER = _IO('c', 11),    /** 一个线程自己注册到Binder驱动程序后,会使用BC_ENTER_LOOPER通知Binder其准备就绪*/    BC_ENTER_LOOPER = _IO('c', 12),    /** 线程发出退出请求,这三条指令都没有通信数据*/    BC_EXIT_LOOPER = _IO('c', 13),    /** 进程向Binder注册一个死亡通知*/    BC_REQUEST_DEATH_NOTIFICATION = _IOW('c', 14, struct binder_ptr_cookie),    /** 进程取消之前注册的死亡通知*/    BC_CLEAR_DEATH_NOTIFICATION = _IOW('c', 15, struct binder_ptr_cookie),    /** 数据指向死亡通知binder_ref_death的地址     *  进程获得Service组件的死亡通知后,会使用该命令通知Binder其已经处理完该死亡通知*/    BC_DEAD_BINDER_DONE = _IOW('c', 16, void *),};

16、binder_ptr_cookie:

/**\binder.h * 可以用来描述一个Binder实体对象或一个Service组件的死亡通知 * 1、Binder实体对象:ptr,cookie见binder_node * 2、死亡通知:ptr指向一个Binder引用对象的句柄值 *          cookie指向接收死亡通知的对象的地址*/struct binder_ptr_cookie {    void *ptr;    void *cookie;};

17、BinderDriverReturnProtocol:

enum BinderDriverReturnProtocol {    /** Binder驱动程序处理进程发送的请求时,发生异常,在返回BR_ERROR通知该进程     *  数据类型为int,表示错误代码*/    BR_ERROR = _IOR('r', 0, int),    /** 表示通知进程成功处理了该事务*/    BR_OK = _IO('r', 1),    /** 对应前面的BC;     * 1、 Client进程向Server进程发送通信请求(BC),Binder使用BR_TRANSACTION通知Server     *   使用者:Binder驱动程序  用途:通知Server     * 2、erver处理完请求使用BC通知Binder,Binder使用BR_REPLY通知Client     *   使用者:Binder驱动程序 用途:通知Client*/    BR_TRANSACTION = _IOR('r', 2, struct binder_transaction_data),    BR_REPLY = _IOR('r', 3, struct binder_transaction_data),    // 当前不支持    BR_ACQUIRE_RESULT = _IOR('r', 4, int),    // Binder处理请求时,发现目标进程或目标线程已死亡,通知源进程    BR_DEAD_REPLY = _IO('r', 5),    // Binder接收到BC_TRANSACTION或BC_REPLY时,会返回BR_TRANSACTION_COMPLETE通知源进程命令已接收    BR_TRANSACTION_COMPLETE = _IO('r', 6),    // 增加减少强弱引用计数    BR_INCREFS = _IOR('r', 7, struct binder_ptr_cookie),    BR_ACQUIRE = _IOR('r', 8, struct binder_ptr_cookie),    BR_RELEASE = _IOR('r', 9, struct binder_ptr_cookie),    BR_DECREFS = _IOR('r', 10, struct binder_ptr_cookie),    // 当前不支持    BR_ATTEMPT_ACQUIRE = _IOR('r', 11, struct binder_pri_ptr_cookie),    // Binder通知源进程执行了一个空操作;用以可以替换为BR_SPAWN_LOOPER    BR_NOOP = _IO('r', 12),    // Binder发现没有足够的线程处理请求时,会返回BR_SPAWN_LOOPER请求增加新的线程到Binder线程池中    BR_SPAWN_LOOPER = _IO('r', 13),    // 当前不支持    BR_FINISHED = _IO('r', 14),    /** void*指针指向用来接收Service组件死亡通知的对象的地址     *  Binder监测到Service组件死亡时,使用BR_DEAD_BINDER通知Client进程     *  Client请求注销之前的死亡通知,Binder完成后,返回BR_CLEAR_DEATH_NOTIFICATION_DONE*/    BR_DEAD_BINDER = _IOR('r', 15, void *),    BR_CLEAR_DEATH_NOTIFICATION_DONE = _IOR('r', 16, void *),    // 发生异常,通知源进程    BR_FAILED_REPLY = _IO('r', 17),};
0 0
原创粉丝点击