当前位置:首页 » 操作系统 » linuxcleanup

linuxcleanup

发布时间: 2022-10-29 20:46:45

linux中使用了什么内存管理方法,为什么

“事实胜于雄辩”,我们用一个小例子(原形取自《User-Level Memory Management》)来展示上面所讲的各种内存区的差别与位置。

进程的地址空间对应的描述结构是“内存描述符结构”,它表示进程的全部地址空间,——包含了和进程地址空间有关的全部信息,其中当然包含进程的内存区域。

进程内存的分配与回收

创建进程fork()、程序载入execve()、映射文件mmap()、动态内存分配malloc()/brk()等进程相关操作都需要分配内存给进程。不过这时进程申请和获得的还不是实际内存,而是虚拟内存,准确的说是“内存区域”。进程对内存区域的分配最终都会归结到do_mmap()函数上来(brk调用被单独以系统调用实现,不用do_mmap()),

内核使用do_mmap()函数创建一个新的线性地址区间。但是说该函数创建了一个新VMA并不非常准确,因为如果创建的地址区间和一个已经存在的地址区间相邻,并且它们具有相同的访问权限的话,那么两个区间将合并为一个。如果不能合并,那么就确实需要创建一个新的VMA了。但无论哪种情况,do_mmap()函数都会将一个地址区间加入到进程的地址空间中--无论是扩展已存在的内存区域还是创建一个新的区域。

同样,释放一个内存区域应使用函数do_ummap(),它会销毁对应的内存区域。

如何由虚变实!

从上面已经看到进程所能直接操作的地址都为虚拟地址。当进程需要内存时,从内核获得的仅仅是虚拟的内存区域,而不是实际的物理地址,进程并没有获得物理内存(物理页面——页的概念请大家参考硬件基础一章),获得的仅仅是对一个新的线性地址区间的使用权。实际的物理内存只有当进程真的去访问新获取的虚拟地址时,才会由“请求页机制”产生“缺页”异常,从而进入分配实际页面的例程。

该异常是虚拟内存机制赖以存在的基本保证——它会告诉内核去真正为进程分配物理页,并建立对应的页表,这之后虚拟地址才实实在在地映射到了系统的物理内存上。(当然,如果页被换出到磁盘,也会产生缺页异常,不过这时不用再建立页表了)

这种请求页机制把页面的分配推迟到不能再推迟为止,并不急于把所有的事情都一次做完(这种思想有点像设计模式中的代理模式(proxy))。之所以能这么做是利用了内存访问的“局部性原理”,请求页带来的好处是节约了空闲内存,提高了系统的吞吐率。要想更清楚地了解请求页机制,可以看看《深入理解linux内核》一书。

这里我们需要说明在内存区域结构上的nopage操作。当访问的进程虚拟内存并未真正分配页面时,该操作便被调用来分配实际的物理页,并为该页建立页表项。在最后的例子中我们会演示如何使用该方法。

系统物理内存管理

虽然应用程序操作的对象是映射到物理内存之上的虚拟内存,但是处理器直接操作的却是物理内存。所以当应用程序访问一个虚拟地址时,首先必须将虚拟地址转化成物理地址,然后处理器才能解析地址访问请求。地址的转换工作需要通过查询页表才能完成,概括地讲,地址转换需要将虚拟地址分段,使每段虚地址都作为一个索引指向页表,而页表项则指向下一级别的页表或者指向最终的物理页面。

每个进程都有自己的页表。进程描述符的pgd域指向的就是进程的页全局目录。下面我们借用《linux设备驱动程序》中的一幅图大致看看进程地址空间到物理页之间的转换关系。

上面的过程说起来简单,做起来难呀。因为在虚拟地址映射到页之前必须先分配物理页——也就是说必须先从内核中获取空闲页,并建立页表。下面我们介绍一下内核管理物理内存的机制。

物理内存管理(页管理)

Linux内核管理物理内存是通过分页机制实现的,它将整个内存划分成无数个4k(在i386体系结构中)大小的页,从而分配和回收内存的基本单位便是内存页了。利用分页管理有助于灵活分配内存地址,因为分配时不必要求必须有大块的连续内存[3],系统可以东一页、西一页的凑出所需要的内存供进程使用。虽然如此,但是实际上系统使用内存时还是倾向于分配连续的内存块,因为分配连续内存时,页表不需要更改,因此能降低TLB的刷新率(频繁刷新会在很大程度上降低访问速度)。

鉴于上述需求,内核分配物理页面时为了尽量减少不连续情况,采用了“伙伴”关系来管理空闲页面。伙伴关系分配算法大家应该不陌生——几乎所有操作系统方面的书都会提到,我们不去详细说它了,如果不明白可以参看有关资料。这里只需要大家明白Linux中空闲页面的组织和管理利用了伙伴关系,因此空闲页面分配时也需要遵循伙伴关系,最小单位只能是2的幂倍页面大小。内核中分配空闲页面的基本函数是get_free_page/get_free_pages,它们或是分配单页或是分配指定的页面(2、4、8…512页)。

注意:get_free_page是在内核中分配内存,不同于malloc在用户空间中分配,malloc利用堆动态分配,实际上是调用brk()系统调用,该调用的作用是扩大或缩小进程堆空间(它会修改进程的brk域)。如果现有的内存区域不够容纳堆空间,则会以页面大小的倍数为单位,扩张或收缩对应的内存区域,但brk值并非以页面大小为倍数修改,而是按实际请求修改。因此Malloc在用户空间分配内存可以以字节为单位分配,但内核在内部仍然会是以页为单位分配的。

另外,需要提及的是,物理页在系统中由页结构structpage描述,系统中所有的页面都存储在数组mem_map[]中,可以通过该数组找到系统中的每一页(空闲或非空闲)。而其中的空闲页面则可由上述提到的以伙伴关系组织的空闲页链表(free_area[MAX_ORDER])来索引。

内核内存使用

Slab

所谓尺有所长,寸有所短。以页为最小单位分配内存对于内核管理系统中的物理内存来说的确比较方便,但内核自身最常使用的内存却往往是很小(远远小于一页)的内存块——比如存放文件描述符、进程描述符、虚拟内存区域描述符等行为所需的内存都不足一页。这些用来存放描述符的内存相比页面而言,就好比是面包屑与面包。一个整页中可以聚集多个这些小块内存;而且这些小块内存块也和面包屑一样频繁地生成/销毁。

为了满足内核对这种小内存块的需要,Linux系统采用了一种被称为slab分配器的技术。Slab分配器的实现相当复杂,但原理不难,其核心思想就是“存储池[4]”的运用。内存片段(小块内存)被看作对象,当被使用完后,并不直接释放而是被缓存到“存储池”里,留做下次使用,这无疑避免了频繁创建与销毁对象所带来的额外负载。

Slab技术不但避免了内存内部分片(下文将解释)带来的不便(引入Slab分配器的主要目的是为了减少对伙伴系统分配算法的调用次数——频繁分配和回收必然会导致内存碎片——难以找到大块连续的可用内存),而且可以很好地利用硬件缓存提高访问速度。

Slab并非是脱离伙伴关系而独立存在的一种内存分配方式,slab仍然是建立在页面基础之上,换句话说,Slab将页面(来自于伙伴关系管理的空闲页面链表)撕碎成众多小内存块以供分配,slab中的对象分配和销毁使用kmem_cache_alloc与kmem_cache_free。

Kmalloc

Slab分配器不仅仅只用来存放内核专用的结构体,它还被用来处理内核对小块内存的请求。当然鉴于Slab分配器的特点,一般来说内核程序中对小于一页的小块内存的请求才通过Slab分配器提供的接口Kmalloc来完成(虽然它可分配32到131072字节的内存)。从内核内存分配的角度来讲,kmalloc可被看成是get_free_page(s)的一个有效补充,内存分配粒度更灵活了。

有兴趣的话,可以到/proc/slabinfo中找到内核执行现场使用的各种slab信息统计,其中你会看到系统中所有slab的使用信息。从信息中可以看到系统中除了专用结构体使用的slab外,还存在大量为Kmalloc而准备的Slab(其中有些为dma准备的)。

内核非连续内存分配(Vmalloc)

伙伴关系也好、slab技术也好,从内存管理理论角度而言目的基本是一致的,它们都是为了防止“分片”,不过分片又分为外部分片和内部分片之说,所谓内部分片是说系统为了满足一小段内存区(连续)的需要,不得不分配了一大区域连续内存给它,从而造成了空间浪费;外部分片是指系统虽有足够的内存,但却是分散的碎片,无法满足对大块“连续内存”的需求。无论何种分片都是系统有效利用内存的障碍。slab分配器使得一个页面内包含的众多小块内存可独立被分配使用,避免了内部分片,节约了空闲内存。伙伴关系把内存块按大小分组管理,一定程度上减轻了外部分片的危害,因为页框分配不在盲目,而是按照大小依次有序进行,不过伙伴关系只是减轻了外部分片,但并未彻底消除。你自己比划一下多次分配页面后,空闲内存的剩余情况吧。

所以避免外部分片的最终思路还是落到了如何利用不连续的内存块组合成“看起来很大的内存块”——这里的情况很类似于用户空间分配虚拟内存,内存逻辑上连续,其实映射到并不一定连续的物理内存上。Linux内核借用了这个技术,允许内核程序在内核地址空间中分配虚拟地址,同样也利用页表(内核页表)将虚拟地址映射到分散的内存页上。以此完美地解决了内核内存使用中的外部分片问题。内核提供vmalloc函数分配内核虚拟内存,该函数不同于kmalloc,它可以分配较Kmalloc大得多的内存空间(可远大于128K,但必须是页大小的倍数),但相比Kmalloc来说,Vmalloc需要对内核虚拟地址进行重映射,必须更新内核页表,因此分配效率上要低一些(用空间换时间)

与用户进程相似,内核也有一个名为init_mm的mm_strcut结构来描述内核地址空间,其中页表项pdg=swapper_pg_dir包含了系统内核空间(3G-4G)的映射关系。因此vmalloc分配内核虚拟地址必须更新内核页表,而kmalloc或get_free_page由于分配的连续内存,所以不需要更新内核页表。

vmalloc分配的内核虚拟内存与kmalloc/get_free_page分配的内核虚拟内存位于不同的区间,不会重叠。因为内核虚拟空间被分区管理,各司其职。进程空间地址分布从0到3G(其实是到PAGE_OFFSET,在0x86中它等于0xC0000000),从3G到vmalloc_start这段地址是物理内存映射区域(该区域中包含了内核镜像、物理页面表mem_map等等)比如我使用的系统内存是64M(可以用free看到),那么(3G——3G+64M)这片内存就应该映射到物理内存,而vmalloc_start位置应在3G+64M附近(说"附近"因为是在物理内存映射区与vmalloc_start期间还会存在一个8M大小的gap来防止跃界),vmalloc_end的位置接近4G(说"接近"是因为最后位置系统会保留一片128k大小的区域用于专用页面映射,还有可能会有高端内存映射区,这些都是细节,这里我们不做纠缠)。

上图是内存分布的模糊轮廓

由get_free_page或Kmalloc函数所分配的连续内存都陷于物理映射区域,所以它们返回的内核虚拟地址和实际物理地址仅仅是相差一个偏移量(PAGE_OFFSET),你可以很方便的将其转化为物理内存地址,同时内核也提供了virt_to_phys()函数将内核虚拟空间中的物理映射区地址转化为物理地址。要知道,物理内存映射区中的地址与内核页表是有序对应的,系统中的每个物理页面都可以找到它对应的内核虚拟地址(在物理内存映射区中的)。

而vmalloc分配的地址则限于vmalloc_start与vmalloc_end之间。每一块vmalloc分配的内核虚拟内存都对应一个vm_struct结构体(可别和vm_area_struct搞混,那可是进程虚拟内存区域的结构),不同的内核虚拟地址被4k大小的空闲区间隔,以防止越界——见下图)。与进程虚拟地址的特性一样,这些虚拟地址与物理内存没有简单的位移关系,必须通过内核页表才可转换为物理地址或物理页。它们有可能尚未被映射,在发生缺页时才真正分配物理页面。

这里给出一个小程序帮助大家认清上面几种分配函数所对应的区域。

#include<linux/mole.h>

#include<linux/slab.h>

#include<linux/vmalloc.h>

unsignedchar*pagemem;

unsignedchar*kmallocmem;

unsignedchar*vmallocmem;

intinit_mole(void)

{

pagemem = get_free_page(0);

printk("<1>pagemem=%s",pagemem);

kmallocmem = kmalloc(100,0);

printk("<1>kmallocmem=%s",kmallocmem);

vmallocmem = vmalloc(1000000);

printk("<1>vmallocmem=%s",vmallocmem);

}

voidcleanup_mole(void)

{

free_page(pagemem);

kfree(kmallocmem);

vfree(vmallocmem);

}

实例

内存映射(mmap)是Linux操作系统的一个很大特色,它可以将系统内存映射到一个文件(设备)上,以便可以通过访问文件内容来达到访问内存的目的。这样做的最大好处是提高了内存访问速度,并且可以利用文件系统的接口编程(设备在Linux中作为特殊文件处理)访问内存,降低了开发难度。许多设备驱动程序便是利用内存映射功能将用户空间的一段地址关联到设备内存上,无论何时,只要内存在分配的地址范围内进行读写,实际上就是对设备内存的访问。同时对设备文件的访问也等同于对内存区域的访问,也就是说,通过文件操作接口可以访问内存。Linux中的X服务器就是一个利用内存映射达到直接高速访问视频卡内存的例子。

熟悉文件操作的朋友一定会知道file_operations结构中有mmap方法,在用户执行mmap系统调用时,便会调用该方法来通过文件访问内存——不过在调用文件系统mmap方法前,内核还需要处理分配内存区域(vma_struct)、建立页表等工作。对于具体映射细节不作介绍了,需要强调的是,建立页表可以采用remap_page_range方法一次建立起所有映射区的页表,或利用vma_struct的nopage方法在缺页时现场一页一页的建立页表。第一种方法相比第二种方法简单方便、速度快,但是灵活性不高。一次调用所有页表便定型了,不适用于那些需要现场建立页表的场合——比如映射区需要扩展或下面我们例子中的情况。

我们这里的实例希望利用内存映射,将系统内核中的一部分虚拟内存映射到用户空间,以供应用程序读取——你可利用它进行内核空间到用户空间的大规模信息传输。因此我们将试图写一个虚拟字符设备驱动程序,通过它将系统内核空间映射到用户空间——将内核虚拟内存映射到用户虚拟地址。从上一节已经看到Linux内核空间中包含两种虚拟地址:一种是物理和逻辑都连续的物理内存映射虚拟地址;另一种是逻辑连续但非物理连续的vmalloc分配的内存虚拟地址。我们的例子程序将演示把vmalloc分配的内核虚拟地址映射到用户地址空间的全过程。

程序里主要应解决两个问题:

第一是如何将vmalloc分配的内核虚拟内存正确地转化成物理地址?

因为内存映射先要获得被映射的物理地址,然后才能将其映射到要求的用户虚拟地址上。我们已经看到内核物理内存映射区域中的地址可以被内核函数virt_to_phys转换成实际的物理内存地址,但对于vmalloc分配的内核虚拟地址无法直接转化成物理地址,所以我们必须对这部分虚拟内存格外“照顾”——先将其转化成内核物理内存映射区域中的地址,然后在用virt_to_phys变为物理地址。

转化工作需要进行如下步骤:

  • 找到vmalloc虚拟内存对应的页表,并寻找到对应的页表项。

  • 获取页表项对应的页面指针

  • 通过页面得到对应的内核物理内存映射区域地址。

  • 如下图所示:

    第二是当访问vmalloc分配区时,如果发现虚拟内存尚未被映射到物理页,则需要处理“缺页异常”。因此需要我们实现内存区域中的nopaga操作,以能返回被映射的物理页面指针,在我们的实例中就是返回上面过程中的内核物理内存映射区域中的地址。由于vmalloc分配的虚拟地址与物理地址的对应关系并非分配时就可确定,必须在缺页现场建立页表,因此这里不能使用remap_page_range方法,只能用vma的nopage方法一页一页的建立。

    程序组成

    map_driver.c,它是以模块形式加载的虚拟字符驱动程序。该驱动负责将一定长的内核虚拟地址(vmalloc分配的)映射到设备文件上。其中主要的函数有——vaddress_to_kaddress()负责对vmalloc分配的地址进行页表解析,以找到对应的内核物理映射地址(kmalloc分配的地址);map_nopage()负责在进程访问一个当前并不存在的VMA页时,寻找该地址对应的物理页,并返回该页的指针。

    test.c它利用上述驱动模块对应的设备文件在用户空间读取读取内核内存。结果可以看到内核虚拟地址的内容(ok!),被显示在了屏幕上。

    执行步骤

    编译map_driver.c为map_driver.o模块,具体参数见Makefile

    加载模块:insmodmap_driver.o

    生成对应的设备文件

    1在/proc/devices下找到map_driver对应的设备命和设备号:grepmapdrv/proc/devices

    2建立设备文件mknodmapfilec 254 0(在我的系统里设备号为254)

    利用maptest读取mapfile文件,将取自内核的信息打印到屏幕上。

    Ⅱ linux c语言中 cleanup:含义

    cleanup:
    这应该是给goto用的跳转地址吧。

    Ⅲ 如何调试linux的网络驱动

    如何根据oops定位代码行
    我们借用linux设备驱动第二篇:构造和运行模块里面的hello world程序来演示出错的情况,含有错误代码的hello world如下:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19

    #include <linux/init.h>
    #include <linux/mole.h>
    MODULE_LICENSE("Dual BSD/GPL");

    static int hello_init(void)
    {
    char *p = NULL;
    memcpy(p, "test", 4);
    printk(KERN_ALERT "Hello, world\n");
    return 0;
    }
    static void hello_exit(void)
    {

    printk(KERN_ALERT "Goodbye, cruel world\n");
    }

    mole_init(hello_init);
    mole_exit(hello_exit);

    Makefile文件如下:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11

    ifneq ($(KERNELRELEASE),)
    obj-m := helloworld.o
    else
    KERNELDIR ?= /lib/moles/$(shell uname -r)/build
    PWD := $(shell pwd)
    default:
    $(MAKE) -C $(KERNELDIR) M=$(PWD) moles
    endif

    clean:
    rm -rf *.o *~ core .depend .*.cmd *.ko *.mod.c .tmp_versions moles.order Mole.symvers

    很明显,以上代码的第8行是一个空指针错误。insmod后会出现下面的oops信息:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36

    [ 459.516441] BUG: unable to handle kernel NULL pointer dereference at (null)
    [ 459.516445]
    [ 459.516448] PGD 0
    [ 459.516450] Oops: 0002 [#1] SMP
    [ 459.516452] Moles linked in: helloworld(OE+) vmw_vsock_vmci_transport vsock coretemp crct10dif_pclmul crc32_pclmul ghash_clmulni_intel aesni_intel vmw_balloon snd_ens1371 aes_x86_64 lrw snd_ac97_codec gf128mul glue_helper ablk_helper cryptd ac97_bus gameport snd_pcm serio_raw snd_seq_midi snd_seq_midi_event snd_rawmidi snd_seq snd_seq_device snd_timer vmwgfx btusb ttm snd drm_kms_helper drm soundcore shpchp vmw_vmci i2c_piix4 rfcomm bnep bluetooth 6lowpan_iphc parport_pc ppdev mac_hid lp parport hid_generic usbhid hid psmouse ahci libahci floppy e1000 vmw_pvscsi vmxnet3 mptspi mptscsih mptbase scsi_transport_spi pata_acpi [last unloaded: helloworld]
    [ 459.516476] CPU: 0 PID: 4531 Comm: insmod Tainted: G OE 3.16.0-33-generic #44~14.04.1-Ubuntu
    [ 459.516478] Hardware name: VMware, Inc. VMware Virtual Platform/440BX Desktop Reference Platform, BIOS 6.00 05/20/2014
    [ 459.516479] task: ffff88003821f010 ti: ffff880038fa0000 task.ti: ffff880038fa0000
    [ 459.516480] RIP: 0010:[<ffffffffc061400d>] [<ffffffffc061400d>] hello_init+0xd/0x30 [helloworld]
    [ 459.516483] RSP: 0018:ffff880038fa3d40 EFLAGS: 00010246
    [ 459.516484] RAX: ffff88000c31d901 RBX: ffffffff81c1a020 RCX: 000000000004b29f
    [ 459.516485] RDX: 000000000004b29e RSI: 0000000000000017 RDI: ffffffffc0615024
    [ 459.516485] RBP: ffff880038fa3db8 R08: 0000000000015e80 R09: ffff88003d615e80
    [ 459.516486] R10: ffffea000030c740 R11: ffffffff81002138 R12: ffff88000c31d0c0
    [ 459.516487] R13: 0000000000000000 R14: ffffffffc0614000 R15: ffffffffc0616000
    [ 459.516488] FS: 00007f8a6fa86740(0000) GS:ffff88003d600000(0000) knlGS:0000000000000000
    [ 459.516489] CS: 0010 DS: 0000 ES: 0000 CR0: 0000000080050033
    [ 459.516490] CR2: 0000000000000000 CR3: 0000000038760000 CR4: 00000000003407f0
    [ 459.516522] DR0: 0000000000000000 DR1: 0000000000000000 DR2: 0000000000000000
    [ 459.516524] DR3: 0000000000000000 DR6: 00000000fffe0ff0 DR7: 0000000000000400
    [ 459.516524] Stack:
    [ 459.57] ffff880038fa3db8 ffffffff81002144 0000000000000001 0000000000000001
    [ 459.516540] 0000000000000001 ffff880028ab5040 0000000000000001 ffff880038fa3da0
    [ 459.516541] ffffffff8119d0b2 ffffffffc0616018 00000000bd1141ac ffffffffc0616018
    [ 459.516543] Call Trace:
    [ 459.516548] [<ffffffff81002144>] ? do_one_initcall+0xd4/0x210
    [ 459.516550] [<ffffffff8119d0b2>] ? __vunmap+0xb2/0x100
    [ 459.516554] [<ffffffff810ed9b1>] load_mole+0x13c1/0x1b80
    [ 459.516557] [<ffffffff810e9560>] ? store_uevent+0x40/0x40
    [ 459.516560] [<ffffffff810ee2e6>] SyS_finit_mole+0x86/0xb0
    [ 459.516563] [<ffffffff8176be6d>] system_call_fastpath+0x1a/0x1f
    [ 459.516564] Code: <c7> 04 25 00 00 00 00 74 65 73 74 31 c0 48 89 e5 e8 a2 86 14 c1 31
    [ 459.516573] RIP [<ffffffffc061400d>] hello_init+0xd/0x30 [helloworld]
    [ 459.516575] RSP <ffff880038fa3d40>
    [ 459.516576] CR2: 0000000000000000
    [ 459.516578] ---[ end trace 7c52cc8624b7ea60 ]---


    下面简单分析下oops信息的内容。
    由BUG: unable to handle kernel NULL pointer dereference at (null)知道出错的原因是使用了空指针。标红的部分确定了具体出错的函数。Moles linked in: helloworld表明了引起oops问题的具体模块。call trace列出了函数的调用信息。这些信息中其中标红的部分是最有用的,我们可以根据其信息找到具体出错的代码行。下面就来说下,如何定位到具体出错的代码行。
    第一步我们需要使用objmp把编译生成的bin文件反汇编,我们这里就是helloworld.o,如下命令把反汇编信息保存到err.txt文件中:

    1

    objmp helloworld.o -D > err.txt

    err.txt内容如下:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    37
    38
    39
    40
    41
    42
    43
    44
    45
    46
    47
    48
    49
    50
    51
    52
    53
    54
    55
    56
    57
    58
    59
    60
    61
    62
    63
    64
    65
    66
    67
    68
    69
    70
    71
    72
    73
    74
    75
    76
    77
    78
    79
    80
    81
    82
    83
    84
    85
    86
    87
    88
    89
    90
    91

    helloworld.o: file format elf64-x86-64

    Disassembly of section .text:

    <span style="color:#ff0000;">0000000000000000 <init_mole>:</span>
    0: e8 00 00 00 00 callq 5 <init_mole+0x5>
    5: 55 push %rbp
    6: 48 c7 c7 00 00 00 00 mov $0x0,%rdi
    d: c7 04 25 00 00 00 00 movl $0x74736574,0x0
    14: 74 65 73 74
    18: 31 c0 xor %eax,%eax
    1a: 48 89 e5 mov %rsp,%rbp
    1d: e8 00 00 00 00 callq 22 <init_mole+0x22>
    22: 31 c0 xor %eax,%eax
    24: 5d pop %rbp
    25: c3 retq
    26: 66 2e 0f 1f 84 00 00 nopw %cs:0x0(%rax,%rax,1)
    2d: 00 00 00

    0000000000000030 <cleanup_mole>:
    30: e8 00 00 00 00 callq 35 <cleanup_mole+0x5>
    35: 55 push %rbp
    36: 48 c7 c7 00 00 00 00 mov $0x0,%rdi
    3d: 31 c0 xor %eax,%eax
    3f: 48 89 e5 mov %rsp,%rbp
    42: e8 00 00 00 00 callq 47 <cleanup_mole+0x17>
    47: 5d pop %rbp
    48: c3 retq

    Disassembly of section .rodata.str1.1:

    0000000000000000 <.rodata.str1.1>:
    0: 01 31 add %esi,(%rcx)
    2: 48 rex.W
    3: 65 gs
    4: 6c insb (%dx),%es:(%rdi)
    5: 6c insb (%dx),%es:(%rdi)
    6: 6f outsl %ds:(%rsi),(%dx)
    7: 2c 20 sub $0x20,%al
    9: 77 6f ja 7a <cleanup_mole+0x4a>
    b: 72 6c jb 79 <cleanup_mole+0x49>
    d: 64 0a 00 or %fs:(%rax),%al
    10: 01 31 add %esi,(%rcx)
    12: 47 6f rex.RXB outsl %ds:(%rsi),(%dx)
    14: 6f outsl %ds:(%rsi),(%dx)
    15: 64 fs
    16: 62 (bad)
    17: 79 65 jns 7e <cleanup_mole+0x4e>
    19: 2c 20 sub $0x20,%al
    1b: 63 72 75 movslq 0x75(%rdx),%esi
    1e: 65 gs
    1f: 6c insb (%dx),%es:(%rdi)
    20: 20 77 6f and %dh,0x6f(%rdi)
    23: 72 6c jb 91 <cleanup_mole+0x61>
    25: 64 0a 00 or %fs:(%rax),%al

    Disassembly of section .modinfo:

    0000000000000000 <__UNIQUE_ID_license0>:
    0: 6c insb (%dx),%es:(%rdi)
    1: 69 63 65 6e 73 65 3d imul $0x3d65736e,0x65(%rbx),%esp
    8: 44 75 61 rex.R jne 6c <cleanup_mole+0x3c>
    b: 6c insb (%dx),%es:(%rdi)
    c: 20 42 53 and %al,0x53(%rdx)
    f: 44 2f rex.R (bad)
    11: 47 50 rex.RXB push %r8
    13: 4c rex.WR
    ...

    Disassembly of section .comment:

    0000000000000000 <.comment>:
    0: 00 47 43 add %al,0x43(%rdi)
    3: 43 3a 20 rex.XB cmp (%r8),%spl
    6: 28 55 62 sub %dl,0x62(%rbp)
    9: 75 6e jne 79 <cleanup_mole+0x49>
    b: 74 75 je 82 <cleanup_mole+0x52>
    d: 20 34 2e and %dh,(%rsi,%rbp,1)
    10: 38 2e cmp %ch,(%rsi)
    12: 32 2d 31 39 75 62 xor 0x62753931(%rip),%ch # 62753949 <cleanup_mole+0x62753919>
    18: 75 6e jne 88 <cleanup_mole+0x58>
    1a: 74 75 je 91 <cleanup_mole+0x61>
    1c: 31 29 xor %ebp,(%rcx)
    1e: 20 34 2e and %dh,(%rsi,%rbp,1)
    21: 38 2e cmp %ch,(%rsi)
    23: 32 00 xor (%rax),%al

    Disassembly of section __mcount_loc:

    0000000000000000 <__mcount_loc>:

    由oops信息我们知道出错的地方是hello_init的地址偏移0xd。而有mp信息知道,hello_init的地址即init_mole的地址,因为hello_init即本模块的初始化入口,如果在其他函数中出错,mp信息中就会有相应符号的地址。由此我们得到出错的地址是0xd,下一步我们就可以使用addr2line来定位具体的代码行:
    addr2line -C -f -e helloworld.o d
    此命令就可以得到行号了。以上就是通过oops信息来定位驱动崩溃的行号。
    其他调试手段
    以上就是通过oops信息来获取具体的导致崩溃的代码行,这种情况都是用在遇到比较严重的错误导致内核挂掉的情况下使用的,另外比较常用的调试手段就是使用printk来输出打印信息。printk的使用方法类似printf,只是要注意一下打印级别,详细介绍在linux设备驱动第二篇:构造和运行模块中已有描述,另外需要注意的是大量使用printk会严重拖慢系统,所以使用过程中也要注意。
    以上两种调试手段是我工作中最常用的,还有一些其他的调试手段,例如使用/proc文件系统,使用trace等用户空间程序,使用gdb,kgdb等,这些调试手段一般不太容易使用或者不太方便使用,所以这里就不在介绍了。

    Ⅳ linux 下 svn 每次更新都提示被锁,哪怕我svn cleanup之后,下次还这样,而且,提示更新了但是线上没变

    从你贴的信息来看,是SVN服务器端的post-commit这个钩子报错,从报错内容分析,估计是post-commit这个钩子调用了svn update去更新你们的线上测试环境,但update时发现html-dev文件夹被锁,要求你去cleanup这个文件夹。

    我估计你cleanup的不是服务器上的那个文件夹,而是你自己客户端的这个文件夹。去把服务器上的那个文件夹cleanup一下,然后再从你的客户端commit一次看看效果。

    Ⅳ linux 回收站的问题

    rm命令删除是不经过回收站的。看看能不能设回收站大小。

    Ⅵ Linux多进程和线程同步的几种方式

    Linux 线程同步的三种方法
    线程的最大特点是资源的共享性,但资源共享中的同步问题是多线程编程的难点。linux下提供了多种方式来处理线程同步,最常用的是互斥锁、条件变量和信号量。
    一、互斥锁(mutex)
    通过锁机制实现线程间的同步。
    初始化锁。在Linux下,线程的互斥量数据类型是pthread_mutex_t。在使用前,要对它进行初始化。
    静态分配:pthread_mutex_t mutex = PTHREAD_MUTEX_INITIALIZER;
    动态分配:int pthread_mutex_init(pthread_mutex_t *mutex, const pthread_mutex_attr_t *mutexattr);
    加锁。对共享资源的访问,要对互斥量进行加锁,如果互斥量已经上了锁,调用线程会阻塞,直到互斥量被解锁。
    int pthread_mutex_lock(pthread_mutex *mutex);
    int pthread_mutex_trylock(pthread_mutex_t *mutex);
    解锁。在完成了对共享资源的访问后,要对互斥量进行解锁。
    int pthread_mutex_unlock(pthread_mutex_t *mutex);
    销毁锁。锁在是使用完成后,需要进行销毁以释放资源。
    int pthread_mutex_destroy(pthread_mutex *mutex);
    [csharp] view plain
    #include <cstdio>
    #include <cstdlib>
    #include <unistd.h>
    #include <pthread.h>
    #include "iostream"
    using namespace std;
    pthread_mutex_t mutex = PTHREAD_MUTEX_INITIALIZER;
    int tmp;
    void* thread(void *arg)
    {
    cout << "thread id is " << pthread_self() << endl;
    pthread_mutex_lock(&mutex);
    tmp = 12;
    cout << "Now a is " << tmp << endl;
    pthread_mutex_unlock(&mutex);
    return NULL;
    }
    int main()
    {
    pthread_t id;
    cout << "main thread id is " << pthread_self() << endl;
    tmp = 3;
    cout << "In main func tmp = " << tmp << endl;
    if (!pthread_create(&id, NULL, thread, NULL))
    {
    cout << "Create thread success!" << endl;
    }
    else
    {
    cout << "Create thread failed!" << endl;
    }
    pthread_join(id, NULL);
    pthread_mutex_destroy(&mutex);
    return 0;
    }
    //编译:g++ -o thread testthread.cpp -lpthread
    二、条件变量(cond)
    互斥锁不同,条件变量是用来等待而不是用来上锁的。条件变量用来自动阻塞一个线程,直到某特殊情况发生为止。通常条件变量和互斥锁同时使用。条件变量分为两部分: 条件和变量。条件本身是由互斥量保护的。线程在改变条件状态前先要锁住互斥量。条件变量使我们可以睡眠等待某种条件出现。条件变量是利用线程间共享的全局变量进行同步的一种机制,主要包括两个动作:一个线程等待"条件变量的条件成立"而挂起;另一个线程使"条件成立"(给出条件成立信号)。条件的检测是在互斥锁的保护下进行的。如果一个条件为假,一个线程自动阻塞,并释放等待状态改变的互斥锁。如果另一个线程改变了条件,它发信号给关联的条件变量,唤醒一个或多个等待它的线程,重新获得互斥锁,重新评价条件。如果两进程共享可读写的内存,条件变量可以被用来实现这两进程间的线程同步。
    初始化条件变量。
    静态态初始化,pthread_cond_t cond = PTHREAD_COND_INITIALIER;
    动态初始化,int pthread_cond_init(pthread_cond_t *cond, pthread_condattr_t *cond_attr);
    等待条件成立。释放锁,同时阻塞等待条件变量为真才行。timewait()设置等待时间,仍未signal,返回ETIMEOUT(加锁保证只有一个线程wait)
    int pthread_cond_wait(pthread_cond_t *cond, pthread_mutex_t *mutex);
    int pthread_cond_timewait(pthread_cond_t *cond,pthread_mutex *mutex,const timespec *abstime);
    激活条件变量。pthread_cond_signal,pthread_cond_broadcast(激活所有等待线程)
    int pthread_cond_signal(pthread_cond_t *cond);
    int pthread_cond_broadcast(pthread_cond_t *cond); //解除所有线程的阻塞
    清除条件变量。无线程等待,否则返回EBUSY
    int pthread_cond_destroy(pthread_cond_t *cond);
    [cpp] view plain
    #include <stdio.h>
    #include <pthread.h>
    #include "stdlib.h"
    #include "unistd.h"
    pthread_mutex_t mutex;
    pthread_cond_t cond;
    void hander(void *arg)
    {
    free(arg);
    (void)pthread_mutex_unlock(&mutex);
    }
    void *thread1(void *arg)
    {
    pthread_cleanup_push(hander, &mutex);
    while(1)
    {
    printf("thread1 is running\n");
    pthread_mutex_lock(&mutex);
    pthread_cond_wait(&cond, &mutex);
    printf("thread1 applied the condition\n");
    pthread_mutex_unlock(&mutex);
    sleep(4);
    }
    pthread_cleanup_pop(0);
    }
    void *thread2(void *arg)
    {
    while(1)
    {
    printf("thread2 is running\n");
    pthread_mutex_lock(&mutex);
    pthread_cond_wait(&cond, &mutex);
    printf("thread2 applied the condition\n");
    pthread_mutex_unlock(&mutex);
    sleep(1);
    }
    }
    int main()
    {
    pthread_t thid1,thid2;
    printf("condition variable study!\n");
    pthread_mutex_init(&mutex, NULL);
    pthread_cond_init(&cond, NULL);
    pthread_create(&thid1, NULL, thread1, NULL);
    pthread_create(&thid2, NULL, thread2, NULL);
    sleep(1);
    do
    {
    pthread_cond_signal(&cond);
    }while(1);
    sleep(20);
    pthread_exit(0);
    return 0;
    }
    [cpp] view plain
    #include <pthread.h>
    #include <unistd.h>
    #include "stdio.h"
    #include "stdlib.h"
    static pthread_mutex_t mtx = PTHREAD_MUTEX_INITIALIZER;
    static pthread_cond_t cond = PTHREAD_COND_INITIALIZER;
    struct node
    {
    int n_number;
    struct node *n_next;
    }*head = NULL;

    static void cleanup_handler(void *arg)
    {
    printf("Cleanup handler of second thread./n");
    free(arg);
    (void)pthread_mutex_unlock(&mtx);
    }
    static void *thread_func(void *arg)
    {
    struct node *p = NULL;
    pthread_cleanup_push(cleanup_handler, p);
    while (1)
    {
    //这个mutex主要是用来保证pthread_cond_wait的并发性
    pthread_mutex_lock(&mtx);
    while (head == NULL)
    {
    //这个while要特别说明一下,单个pthread_cond_wait功能很完善,为何
    //这里要有一个while (head == NULL)呢?因为pthread_cond_wait里的线
    //程可能会被意外唤醒,如果这个时候head != NULL,则不是我们想要的情况。
    //这个时候,应该让线程继续进入pthread_cond_wait
    // pthread_cond_wait会先解除之前的pthread_mutex_lock锁定的mtx,
    //然后阻塞在等待对列里休眠,直到再次被唤醒(大多数情况下是等待的条件成立
    //而被唤醒,唤醒后,该进程会先锁定先pthread_mutex_lock(&mtx);,再读取资源
    //用这个流程是比较清楚的
    pthread_cond_wait(&cond, &mtx);
    p = head;
    head = head->n_next;
    printf("Got %d from front of queue/n", p->n_number);
    free(p);
    }
    pthread_mutex_unlock(&mtx); //临界区数据操作完毕,释放互斥锁
    }
    pthread_cleanup_pop(0);
    return 0;
    }
    int main(void)
    {
    pthread_t tid;
    int i;
    struct node *p;
    //子线程会一直等待资源,类似生产者和消费者,但是这里的消费者可以是多个消费者,而
    //不仅仅支持普通的单个消费者,这个模型虽然简单,但是很强大
    pthread_create(&tid, NULL, thread_func, NULL);
    sleep(1);
    for (i = 0; i < 10; i++)
    {
    p = (struct node*)malloc(sizeof(struct node));
    p->n_number = i;
    pthread_mutex_lock(&mtx); //需要操作head这个临界资源,先加锁,
    p->n_next = head;
    head = p;
    pthread_cond_signal(&cond);
    pthread_mutex_unlock(&mtx); //解锁
    sleep(1);
    }
    printf("thread 1 wanna end the line.So cancel thread 2./n");
    //关于pthread_cancel,有一点额外的说明,它是从外部终止子线程,子线程会在最近的取消点,退出
    //线程,而在我们的代码里,最近的取消点肯定就是pthread_cond_wait()了。
    pthread_cancel(tid);
    pthread_join(tid, NULL);
    printf("All done -- exiting/n");
    return 0;
    }
    三、信号量(sem)
    如同进程一样,线程也可以通过信号量来实现通信,虽然是轻量级的。信号量函数的名字都以"sem_"打头。线程使用的基本信号量函数有四个。
    信号量初始化。
    int sem_init (sem_t *sem , int pshared, unsigned int value);
    这是对由sem指定的信号量进行初始化,设置好它的共享选项(linux 只支持为0,即表示它是当前进程的局部信号量),然后给它一个初始值VALUE。
    等待信号量。给信号量减1,然后等待直到信号量的值大于0。
    int sem_wait(sem_t *sem);
    释放信号量。信号量值加1。并通知其他等待线程。
    int sem_post(sem_t *sem);
    销毁信号量。我们用完信号量后都它进行清理。归还占有的一切资源。
    int sem_destroy(sem_t *sem);
    [cpp] view plain
    #include <stdlib.h>
    #include <stdio.h>
    #include <unistd.h>
    #include <pthread.h>
    #include <semaphore.h>
    #include <errno.h>
    #define return_if_fail(p) if((p) == 0){printf ("[%s]:func error!/n", __func__);return;}
    typedef struct _PrivInfo
    {
    sem_t s1;
    sem_t s2;
    time_t end_time;
    }PrivInfo;

    static void info_init (PrivInfo* thiz);
    static void info_destroy (PrivInfo* thiz);
    static void* pthread_func_1 (PrivInfo* thiz);
    static void* pthread_func_2 (PrivInfo* thiz);

    int main (int argc, char** argv)
    {
    pthread_t pt_1 = 0;
    pthread_t pt_2 = 0;
    int ret = 0;
    PrivInfo* thiz = NULL;
    thiz = (PrivInfo* )malloc (sizeof (PrivInfo));
    if (thiz == NULL)
    {
    printf ("[%s]: Failed to malloc priv./n");
    return -1;
    }
    info_init (thiz);
    ret = pthread_create (&pt_1, NULL, (void*)pthread_func_1, thiz);
    if (ret != 0)
    {
    perror ("pthread_1_create:");
    }
    ret = pthread_create (&pt_2, NULL, (void*)pthread_func_2, thiz);
    if (ret != 0)
    {
    perror ("pthread_2_create:");
    }
    pthread_join (pt_1, NULL);
    pthread_join (pt_2, NULL);
    info_destroy (thiz);
    return 0;
    }
    static void info_init (PrivInfo* thiz)
    {
    return_if_fail (thiz != NULL);
    thiz->end_time = time(NULL) + 10;
    sem_init (&thiz->s1, 0, 1);
    sem_init (&thiz->s2, 0, 0);
    return;
    }
    static void info_destroy (PrivInfo* thiz)
    {
    return_if_fail (thiz != NULL);
    sem_destroy (&thiz->s1);
    sem_destroy (&thiz->s2);
    free (thiz);
    thiz = NULL;
    return;
    }
    static void* pthread_func_1 (PrivInfo* thiz)
    {
    return_if_fail(thiz != NULL);
    while (time(NULL) < thiz->end_time)
    {
    sem_wait (&thiz->s2);
    printf ("pthread1: pthread1 get the lock./n");
    sem_post (&thiz->s1);
    printf ("pthread1: pthread1 unlock/n");
    sleep (1);
    }
    return;
    }
    static void* pthread_func_2 (PrivInfo* thiz)
    {
    return_if_fail (thiz != NULL);
    while (time (NULL) < thiz->end_time)
    {
    sem_wait (&thiz->s1);
    printf ("pthread2: pthread2 get the unlock./n");
    sem_post (&thiz->s2);
    printf ("pthread2: pthread2 unlock./n");
    sleep (1);
    }
    return;
    }

    Ⅶ linux线程pthread_cleanuo_push 函数问题

    pthread_cleanup_push来注册清理函数rtn,这个函数有一个参数arg。在以下三种情形之一发生时,注册的清理函数被执行:
    1)调用pthread_exit。
    2)作为对取消线程请求(pthread_cancel)的响应。
    3)以非0参数调用pthread_cleanup_pop。
    注意:
    1)如果线程只是由于简单的返回而终止的,则清除函数不会被调用。
    2)如果pthread_cleanup_pop被传递0参数,则清除函数不会被调用,但是会清除处于栈顶的清理函数。

    Ⅷ 如何让linux驱动模块随机器启动

    LINUX中的驱动设计是嵌入式LINUX开发中十分重要的部分,它要求开发者不仅要熟悉LINUX的内核机制、驱动程序与用户级应用程序的接口关系、考虑系统中对设备的并发操作等等,而且还要非常熟悉所开发硬件的工作原理。这对驱动开发者提出了比较高的要求,本章是给大家了解驱动设计提供一个简单入门的一个实例,并不需要提供太多与硬件相关的内容,这部分应该是通过仔细阅读芯片厂家提供的资料来解决。

    驱动程序的作用是应用程序与硬件之间的一个中间软件层,驱动程序应该为应用程序展现硬件的所有功能,不应该强加其他的约束,对于硬件使用的权限和限制应该由应用程序层控制。但是有时驱动程序的设计是跟所开发的项目相关的,这时就可能在驱动层加入一些与应用相关的设计考虑,主要是因为在驱动层的效率比应用层高,同时为了项目的需要可能只强化或优化硬件的某个功能,而弱化或关闭其他一些功能;到底需要展现硬件的哪些功能全都由开发者根据需要而定。驱动程序有时会被多个进程同时使用,这时我们要考虑如何处理并发的问题,就需要调用一些内核的函数使用互斥量和锁等机制。

    驱动程序主要需要考虑下面三个方面:提供尽量多的选项给用户,提高驱动程序的速度和效率,尽量使驱动程序简单,使之易于维护。

    LINUX的驱动开发调试有两种方法,一种是直接编译到内核,再运行新的内核来测试;二是编译为模块的形式,单独加载运行调试。第一种方法效率较低,但在某些场合是唯一的方法。模块方式调试效率很高,它使用insmod工具将编译的模块直接插入内核,如果出现故障,可以使用rmmod从内核中卸载模块。不需要重新启动内核,这使驱动调试效率大大提高。

    模块中必须的两个基本函数:在Linux 2.4 内核中是函数init_mole和cleanup_mole;在Linux 2.6 的内核中是宏mole_init(your_init_func) 和mole_exit(your_exit_func)。初始化函数的作用一般是分配资源、注册设备方法等,退出函数的作用一般是释放所申请的资源等。

    Ⅸ Linux下线程同步的几种方法

    Linux 线程同步的三种方法
    线程的最大特点是资源的共享性,但资源共享中的同步问题是多线程编程的难点。linux下提供了多种方式来处理线程同步,最常用的是互斥锁、条件变量和信号量。
    一、互斥锁(mutex)
    通过锁机制实现线程间的同步。
    初始化锁。在Linux下,线程的互斥量数据类型是pthread_mutex_t。在使用前,要对它进行初始化。
    静态分配:pthread_mutex_t mutex = PTHREAD_MUTEX_INITIALIZER;
    动态分配:int pthread_mutex_init(pthread_mutex_t *mutex, const pthread_mutex_attr_t *mutexattr);
    加锁。对共享资源的访问,要对互斥量进行加锁,如果互斥量已经上了锁,调用线程会阻塞,直到互斥量被解锁。
    int pthread_mutex_lock(pthread_mutex *mutex);
    int pthread_mutex_trylock(pthread_mutex_t *mutex);
    解锁。在完成了对共享资源的访问后,要对互斥量进行解锁。
    int pthread_mutex_unlock(pthread_mutex_t *mutex);
    销毁锁。锁在是使用完成后,需要进行销毁以释放资源。
    int pthread_mutex_destroy(pthread_mutex *mutex);
    [csharp] view plain
    #include <cstdio>
    #include <cstdlib>
    #include <unistd.h>
    #include <pthread.h>
    #include "iostream"
    using namespace std;
    pthread_mutex_t mutex = PTHREAD_MUTEX_INITIALIZER;
    int tmp;
    void* thread(void *arg)
    {
    cout << "thread id is " << pthread_self() << endl;
    pthread_mutex_lock(&mutex);
    tmp = 12;
    cout << "Now a is " << tmp << endl;
    pthread_mutex_unlock(&mutex);
    return NULL;
    }
    int main()
    {
    pthread_t id;
    cout << "main thread id is " << pthread_self() << endl;
    tmp = 3;
    cout << "In main func tmp = " << tmp << endl;
    if (!pthread_create(&id, NULL, thread, NULL))
    {
    cout << "Create thread success!" << endl;
    }
    else
    {
    cout << "Create thread failed!" << endl;
    }
    pthread_join(id, NULL);
    pthread_mutex_destroy(&mutex);
    return 0;
    }
    //编译:g++ -o thread testthread.cpp -lpthread
    二、条件变量(cond)
    互斥锁不同,条件变量是用来等待而不是用来上锁的。条件变量用来自动阻塞一个线程,直到某特殊情况发生为止。通常条件变量和互斥锁同时使用。条件变量分为两部分: 条件和变量。条件本身是由互斥量保护的。线程在改变条件状态前先要锁住互斥量。条件变量使我们可以睡眠等待某种条件出现。条件变量是利用线程间共享的全局变量进行同步的一种机制,主要包括两个动作:一个线程等待"条件变量的条件成立"而挂起;另一个线程使"条件成立"(给出条件成立信号)。条件的检测是在互斥锁的保护下进行的。如果一个条件为假,一个线程自动阻塞,并释放等待状态改变的互斥锁。如果另一个线程改变了条件,它发信号给关联的条件变量,唤醒一个或多个等待它的线程,重新获得互斥锁,重新评价条件。如果两进程共享可读写的内存,条件变量可以被用来实现这两进程间的线程同步。
    初始化条件变量。
    静态态初始化,pthread_cond_t cond = PTHREAD_COND_INITIALIER;
    动态初始化,int pthread_cond_init(pthread_cond_t *cond, pthread_condattr_t *cond_attr);
    等待条件成立。释放锁,同时阻塞等待条件变量为真才行。timewait()设置等待时间,仍未signal,返回ETIMEOUT(加锁保证只有一个线程wait)
    int pthread_cond_wait(pthread_cond_t *cond, pthread_mutex_t *mutex);
    int pthread_cond_timewait(pthread_cond_t *cond,pthread_mutex *mutex,const timespec *abstime);
    激活条件变量。pthread_cond_signal,pthread_cond_broadcast(激活所有等待线程)
    int pthread_cond_signal(pthread_cond_t *cond);
    int pthread_cond_broadcast(pthread_cond_t *cond); //解除所有线程的阻塞
    清除条件变量。无线程等待,否则返回EBUSY
    int pthread_cond_destroy(pthread_cond_t *cond);
    [cpp] view plain
    #include <stdio.h>
    #include <pthread.h>
    #include "stdlib.h"
    #include "unistd.h"
    pthread_mutex_t mutex;
    pthread_cond_t cond;
    void hander(void *arg)
    {
    free(arg);
    (void)pthread_mutex_unlock(&mutex);
    }
    void *thread1(void *arg)
    {
    pthread_cleanup_push(hander, &mutex);
    while(1)
    {
    printf("thread1 is running\n");
    pthread_mutex_lock(&mutex);
    pthread_cond_wait(&cond, &mutex);
    printf("thread1 applied the condition\n");
    pthread_mutex_unlock(&mutex);
    sleep(4);
    }
    pthread_cleanup_pop(0);
    }
    void *thread2(void *arg)
    {
    while(1)
    {
    printf("thread2 is running\n");
    pthread_mutex_lock(&mutex);
    pthread_cond_wait(&cond, &mutex);
    printf("thread2 applied the condition\n");
    pthread_mutex_unlock(&mutex);
    sleep(1);
    }
    }
    int main()
    {
    pthread_t thid1,thid2;
    printf("condition variable study!\n");
    pthread_mutex_init(&mutex, NULL);
    pthread_cond_init(&cond, NULL);
    pthread_create(&thid1, NULL, thread1, NULL);
    pthread_create(&thid2, NULL, thread2, NULL);
    sleep(1);
    do
    {
    pthread_cond_signal(&cond);
    }while(1);
    sleep(20);
    pthread_exit(0);
    return 0;
    }
    [cpp] view plain
    #include <pthread.h>
    #include <unistd.h>
    #include "stdio.h"
    #include "stdlib.h"
    static pthread_mutex_t mtx = PTHREAD_MUTEX_INITIALIZER;
    static pthread_cond_t cond = PTHREAD_COND_INITIALIZER;
    struct node
    {
    int n_number;
    struct node *n_next;
    }*head = NULL;

    static void cleanup_handler(void *arg)
    {
    printf("Cleanup handler of second thread./n");
    free(arg);
    (void)pthread_mutex_unlock(&mtx);
    }
    static void *thread_func(void *arg)
    {
    struct node *p = NULL;
    pthread_cleanup_push(cleanup_handler, p);
    while (1)
    {
    //这个mutex主要是用来保证pthread_cond_wait的并发性
    pthread_mutex_lock(&mtx);
    while (head == NULL)
    {
    //这个while要特别说明一下,单个pthread_cond_wait功能很完善,为何
    //这里要有一个while (head == NULL)呢?因为pthread_cond_wait里的线
    //程可能会被意外唤醒,如果这个时候head != NULL,则不是我们想要的情况。
    //这个时候,应该让线程继续进入pthread_cond_wait
    // pthread_cond_wait会先解除之前的pthread_mutex_lock锁定的mtx,
    //然后阻塞在等待对列里休眠,直到再次被唤醒(大多数情况下是等待的条件成立
    //而被唤醒,唤醒后,该进程会先锁定先pthread_mutex_lock(&mtx);,再读取资源
    //用这个流程是比较清楚的
    pthread_cond_wait(&cond, &mtx);
    p = head;
    head = head->n_next;
    printf("Got %d from front of queue/n", p->n_number);
    free(p);
    }
    pthread_mutex_unlock(&mtx); //临界区数据操作完毕,释放互斥锁
    }
    pthread_cleanup_pop(0);
    return 0;
    }
    int main(void)
    {
    pthread_t tid;
    int i;
    struct node *p;
    //子线程会一直等待资源,类似生产者和消费者,但是这里的消费者可以是多个消费者,而
    //不仅仅支持普通的单个消费者,这个模型虽然简单,但是很强大
    pthread_create(&tid, NULL, thread_func, NULL);
    sleep(1);
    for (i = 0; i < 10; i++)
    {
    p = (struct node*)malloc(sizeof(struct node));
    p->n_number = i;
    pthread_mutex_lock(&mtx); //需要操作head这个临界资源,先加锁,
    p->n_next = head;
    head = p;
    pthread_cond_signal(&cond);
    pthread_mutex_unlock(&mtx); //解锁
    sleep(1);
    }
    printf("thread 1 wanna end the line.So cancel thread 2./n");
    //关于pthread_cancel,有一点额外的说明,它是从外部终止子线程,子线程会在最近的取消点,退出
    //线程,而在我们的代码里,最近的取消点肯定就是pthread_cond_wait()了。
    pthread_cancel(tid);
    pthread_join(tid, NULL);
    printf("All done -- exiting/n");
    return 0;
    }
    三、信号量(sem)
    如同进程一样,线程也可以通过信号量来实现通信,虽然是轻量级的。信号量函数的名字都以"sem_"打头。线程使用的基本信号量函数有四个。
    信号量初始化。
    int sem_init (sem_t *sem , int pshared, unsigned int value);
    这是对由sem指定的信号量进行初始化,设置好它的共享选项(linux 只支持为0,即表示它是当前进程的局部信号量),然后给它一个初始值VALUE。
    等待信号量。给信号量减1,然后等待直到信号量的值大于0。
    int sem_wait(sem_t *sem);
    释放信号量。信号量值加1。并通知其他等待线程。
    int sem_post(sem_t *sem);
    销毁信号量。我们用完信号量后都它进行清理。归还占有的一切资源。
    int sem_destroy(sem_t *sem);
    [cpp] view plain
    #include <stdlib.h>
    #include <stdio.h>
    #include <unistd.h>
    #include <pthread.h>
    #include <semaphore.h>
    #include <errno.h>
    #define return_if_fail(p) if((p) == 0){printf ("[%s]:func error!/n", __func__);return;}
    typedef struct _PrivInfo
    {
    sem_t s1;
    sem_t s2;
    time_t end_time;
    }PrivInfo;

    static void info_init (PrivInfo* thiz);
    static void info_destroy (PrivInfo* thiz);
    static void* pthread_func_1 (PrivInfo* thiz);
    static void* pthread_func_2 (PrivInfo* thiz);

    int main (int argc, char** argv)
    {
    pthread_t pt_1 = 0;
    pthread_t pt_2 = 0;
    int ret = 0;
    PrivInfo* thiz = NULL;
    thiz = (PrivInfo* )malloc (sizeof (PrivInfo));
    if (thiz == NULL)
    {
    printf ("[%s]: Failed to malloc priv./n");
    return -1;
    }
    info_init (thiz);
    ret = pthread_create (&pt_1, NULL, (void*)pthread_func_1, thiz);
    if (ret != 0)
    {
    perror ("pthread_1_create:");
    }
    ret = pthread_create (&pt_2, NULL, (void*)pthread_func_2, thiz);
    if (ret != 0)
    {
    perror ("pthread_2_create:");
    }
    pthread_join (pt_1, NULL);
    pthread_join (pt_2, NULL);
    info_destroy (thiz);
    return 0;
    }
    static void info_init (PrivInfo* thiz)
    {
    return_if_fail (thiz != NULL);
    thiz->end_time = time(NULL) + 10;
    sem_init (&thiz->s1, 0, 1);
    sem_init (&thiz->s2, 0, 0);
    return;
    }
    static void info_destroy (PrivInfo* thiz)
    {
    return_if_fail (thiz != NULL);
    sem_destroy (&thiz->s1);
    sem_destroy (&thiz->s2);
    free (thiz);
    thiz = NULL;
    return;
    }
    static void* pthread_func_1 (PrivInfo* thiz)
    {
    return_if_fail(thiz != NULL);
    while (time(NULL) < thiz->end_time)
    {
    sem_wait (&thiz->s2);
    printf ("pthread1: pthread1 get the lock./n");
    sem_post (&thiz->s1);
    printf ("pthread1: pthread1 unlock/n");
    sleep (1);
    }
    return;
    }
    static void* pthread_func_2 (PrivInfo* thiz)
    {
    return_if_fail (thiz != NULL);
    while (time (NULL) < thiz->end_time)
    {
    sem_wait (&thiz->s1);
    printf ("pthread2: pthread2 get the unlock./n");
    sem_post (&thiz->s2);
    printf ("pthread2: pthread2 unlock./n");
    sleep (1);
    }
    return;
    }

    Ⅹ Linux-查找系统中已安装的rpm包

    右键打开终端,或者是新建终端:

    rpm –qa 查询Linux系统中的所有软件包。

    rpm –q 包名称 查询指定名称软件包是否安装。

    热点内容
    密码忘了从哪里找 发布:2025-05-14 02:39:09 浏览:546
    我的世界什么服务器有前途 发布:2025-05-14 02:30:31 浏览:527
    java程序反编译 发布:2025-05-14 02:18:46 浏览:457
    蛤蟆编程 发布:2025-05-14 02:17:12 浏览:642
    解压缩文件后缀 发布:2025-05-14 02:14:07 浏览:303
    阅章娱乐系统清理数据密码是多少 发布:2025-05-14 02:09:10 浏览:972
    米家的密码锁初始密码是多少 发布:2025-05-14 01:58:51 浏览:36
    存储空间和内存的区别 发布:2025-05-14 01:57:20 浏览:951
    市里煤炭资源配置是什么意思 发布:2025-05-14 01:52:23 浏览:307
    c删除一行数据库 发布:2025-05-14 01:50:53 浏览:74