bit位域大小端转换问题,位域是一个整体转换?

来源:互联网 发布:确保数据完整准确 编辑:程序博客网 时间:2024/05/29 18:48

程序:

typedef union{    unsigned short value;    struct {        unsigned short a : 4;        unsigned short b : 4;        unsigned short c : 4;        unsigned short d : 4;    } field;}u;typedef union{    unsigned short value;    struct {        unsigned short a : 8;        unsigned short b : 8;    } field;}b;void main(void){    u test1;    test1.value = 0x1234;        printf ("      %#X, %#X, %#X, %#X, %#X\n", test1.value, test1.field.a, test1.field.b, test1.field.c, test1.field.d);    printf ("ADDR: %#X, VALUE:%#X,\nADDR: %#X, VALUE:%#X\n", (char*)(&test1.value),  *(char*)(&test1.value),((char*)(&test1.value) +1 ),*((char*)(&test1.value) +1 )  );}

此程序在大小端的运行结果:

大端:

root@lc1:~# test1       0X1234, 0X1, 0X2, 0X3, 0X4ADDR: 0XBFBAE738, VALUE:0X12,ADDR: 0XBFBAE739, VALUE:0X34
小端:
bash-4.1$ ./test      0X1234, 0X4, 0X3, 0X2, 0X1ADDR: 0XD2DC2810, VALUE:0X34,ADDR: 0XD2DC2811, VALUE:0X12
结论:

1. 大小端存储都是按字节来划分,不是按bit;

2.位域是按位域定义整体翻转;如果每一个bit都是一个域,则整体按bit来翻转。


例如..u 定义如下:

typedef union{    unsigned short value;    struct {        unsigned short a : 1;        unsigned short b : 1;        unsigned short c : 1;        unsigned short d : 1;        unsigned short e : 1;        unsigned short f : 1;        unsigned short g : 1;        unsigned short h : 1;    } field;}u;
    
test1.value = 0b00010011;test1.field.a ~ h 的值,在小端机器里就是: 1 1 0 0 1 0 0 0 ,test1.field.a ~ h 的值,在大端机器里就是: 0 0 0 1 0 0 1 1 .


计算机系统中,我们是以字节为单位的,每个地址单元都对应着一个字节,一个字节为 8bit。但是在C语言中除了8bit的char之外,还有16bit的short型,32bit的long型(要看具体的编译器),另外,对于位数大于 8位的处理器,例如16位或者32位的处理器,由于寄存器宽度大于一个字节,那么必然存在着一个如何将多个字节安排的问题。因此就导致了大端存储模式和小端存储模式。例如一个16bit的short型x,在内存中的地址为0x0010,x的值为0x1122,那么0x11为高字节,0x22为低字节。对于 大端模式,就将0x11放在低地址中,即0x0010中,0x22放在高地址中,即0x0011中。小端模式,刚好相反。我们常用的X86结构是小端模式,而KEIL C51则为大端模式。很多的ARM,DSP都为小端模式。有些ARM处理器还可以由硬件来选择是大端模式还是小端模式。----百度百科

    由于不同的计算机系统可能存在不同的大小端模式,所以不同的体系系统间通信就需要进行大小端转换。任何在不同系统间的通信信息都经过网络字节(大端)序进行传输,也就是说不管本机是什么模式,都要保证发送端传输的数据转换为网络序,接受端都要把网络序的数据转换为本地序。

    16bit和32bit的大小端转换很常见,一般也不会存在什么问题。但如果定义的数据结构中包含bit位域,该如何转换呢?

    1)低字节都存放在低地址

    2)大端模式首先为字段的高bit位分配空间,小端模式首先为字段的低bit位分配空间

    3)大端模式首先存放在地址的高bit位,小端模式首先存放在地址的低bit位

    一个例子

    struct

    {

         short bit1:4

         short bit2:9

         short bit3:3

    };

    大端模式下在内存中存放的形式如下:

 

             Bit1

 

          Bit2(h4) 

 

              Bit2(l5)

 

             Bit3

    7                                                 0 7                                                                                  0

                                                                                       图1

    小端模式下在内存中存放的形式如下:

 

         Bit2(l4)

 

          Bit1 

 

            Bit3

 

              Bit2(h5)

     7                                                 0 7                                                       0

                                                                                       图2

     如果我们在小端机器上,数据流按照图2的格式发送到目标端是大端的机器上,明显不能直接通过图1的结构来解码。

     如果为大小端分别定义两套结构呢?定义如下:

    struct

    {

        #ifdef __LITTLE_ENDIAN__

         short bit1:4

         short bit2:9

         short bit3:3

        #else

         short bit3:3

         short bit2:9

         short bit1:4

         #endif

    };

    在大端的机器上我们按照下面的格式进行解析:

 

         Bit3

 

        Bit2(h5)

 

           Bit2(l4)

 

                   Bit1

    7                                                0 7                                                         0

                                                                                   图3

    可是解码的数据还是不对,但观察一下不难发现,如果我们把小端的的数据(图2)前后两个字节颠倒,就和大端机器上的结构(图3)完全一致了。

    综上所述,bit位域的大小端转换如下:

    1: 在机器上定义大小端两套数据结构分别针对大小端

    2:传输的bit域数据需要进行本机序->网络序->本机序的转换过程(bit域数据可以映射为对应长度的short或int类型进行转换)

    struct

    {

         short bitData;

    };

    3:定义不超过一个字节的bit位域,只需要定义两套数据结构,不再需要进行本机序->网络序->本机序的转换过程


原创粉丝点击