當前位置:首頁 » 操作系統 » linuxcleanup

linuxcleanup

發布時間: 2022-10-29 20:46:45

linux中使用了什麼內存管理方法,為什麼

「事實勝於雄辯」,我們用一個小例子(原形取自《User-Level Memory Management》)來展示上面所講的各種內存區的差別與位置。

進程的地址空間對應的描述結構是「內存描述符結構」,它表示進程的全部地址空間,——包含了和進程地址空間有關的全部信息,其中當然包含進程的內存區域。

進程內存的分配與回收

創建進程fork()、程序載入execve()、映射文件mmap()、動態內存分配malloc()/brk()等進程相關操作都需要分配內存給進程。不過這時進程申請和獲得的還不是實際內存,而是虛擬內存,准確的說是「內存區域」。進程對內存區域的分配最終都會歸結到do_mmap()函數上來(brk調用被單獨以系統調用實現,不用do_mmap()),

內核使用do_mmap()函數創建一個新的線性地址區間。但是說該函數創建了一個新VMA並不非常准確,因為如果創建的地址區間和一個已經存在的地址區間相鄰,並且它們具有相同的訪問許可權的話,那麼兩個區間將合並為一個。如果不能合並,那麼就確實需要創建一個新的VMA了。但無論哪種情況,do_mmap()函數都會將一個地址區間加入到進程的地址空間中--無論是擴展已存在的內存區域還是創建一個新的區域。

同樣,釋放一個內存區域應使用函數do_ummap(),它會銷毀對應的內存區域。

如何由虛變實!

從上面已經看到進程所能直接操作的地址都為虛擬地址。當進程需要內存時,從內核獲得的僅僅是虛擬的內存區域,而不是實際的物理地址,進程並沒有獲得物理內存(物理頁面——頁的概念請大家參考硬體基礎一章),獲得的僅僅是對一個新的線性地址區間的使用權。實際的物理內存只有當進程真的去訪問新獲取的虛擬地址時,才會由「請求頁機制」產生「缺頁」異常,從而進入分配實際頁面的常式。

該異常是虛擬內存機制賴以存在的基本保證——它會告訴內核去真正為進程分配物理頁,並建立對應的頁表,這之後虛擬地址才實實在在地映射到了系統的物理內存上。(當然,如果頁被換出到磁碟,也會產生缺頁異常,不過這時不用再建立頁表了)

這種請求頁機制把頁面的分配推遲到不能再推遲為止,並不急於把所有的事情都一次做完(這種思想有點像設計模式中的代理模式(proxy))。之所以能這么做是利用了內存訪問的「局部性原理」,請求頁帶來的好處是節約了空閑內存,提高了系統的吞吐率。要想更清楚地了解請求頁機制,可以看看《深入理解linux內核》一書。

這里我們需要說明在內存區域結構上的nopage操作。當訪問的進程虛擬內存並未真正分配頁面時,該操作便被調用來分配實際的物理頁,並為該頁建立頁表項。在最後的例子中我們會演示如何使用該方法。

系統物理內存管理

雖然應用程序操作的對象是映射到物理內存之上的虛擬內存,但是處理器直接操作的卻是物理內存。所以當應用程序訪問一個虛擬地址時,首先必須將虛擬地址轉化成物理地址,然後處理器才能解析地址訪問請求。地址的轉換工作需要通過查詢頁表才能完成,概括地講,地址轉換需要將虛擬地址分段,使每段虛地址都作為一個索引指向頁表,而頁表項則指向下一級別的頁表或者指向最終的物理頁面。

每個進程都有自己的頁表。進程描述符的pgd域指向的就是進程的頁全局目錄。下面我們借用《linux設備驅動程序》中的一幅圖大致看看進程地址空間到物理頁之間的轉換關系。

上面的過程說起來簡單,做起來難呀。因為在虛擬地址映射到頁之前必須先分配物理頁——也就是說必須先從內核中獲取空閑頁,並建立頁表。下面我們介紹一下內核管理物理內存的機制。

物理內存管理(頁管理)

Linux內核管理物理內存是通過分頁機制實現的,它將整個內存劃分成無數個4k(在i386體系結構中)大小的頁,從而分配和回收內存的基本單位便是內存頁了。利用分頁管理有助於靈活分配內存地址,因為分配時不必要求必須有大塊的連續內存[3],系統可以東一頁、西一頁的湊出所需要的內存供進程使用。雖然如此,但是實際上系統使用內存時還是傾向於分配連續的內存塊,因為分配連續內存時,頁表不需要更改,因此能降低TLB的刷新率(頻繁刷新會在很大程度上降低訪問速度)。

鑒於上述需求,內核分配物理頁面時為了盡量減少不連續情況,採用了「夥伴」關系來管理空閑頁面。夥伴關系分配演算法大家應該不陌生——幾乎所有操作系統方面的書都會提到,我們不去詳細說它了,如果不明白可以參看有關資料。這里只需要大家明白Linux中空閑頁面的組織和管理利用了夥伴關系,因此空閑頁面分配時也需要遵循夥伴關系,最小單位只能是2的冪倍頁面大小。內核中分配空閑頁面的基本函數是get_free_page/get_free_pages,它們或是分配單頁或是分配指定的頁面(2、4、8…512頁)。

注意:get_free_page是在內核中分配內存,不同於malloc在用戶空間中分配,malloc利用堆動態分配,實際上是調用brk()系統調用,該調用的作用是擴大或縮小進程堆空間(它會修改進程的brk域)。如果現有的內存區域不夠容納堆空間,則會以頁面大小的倍數為單位,擴張或收縮對應的內存區域,但brk值並非以頁面大小為倍數修改,而是按實際請求修改。因此Malloc在用戶空間分配內存可以以位元組為單位分配,但內核在內部仍然會是以頁為單位分配的。

另外,需要提及的是,物理頁在系統中由頁結構structpage描述,系統中所有的頁面都存儲在數組mem_map[]中,可以通過該數組找到系統中的每一頁(空閑或非空閑)。而其中的空閑頁面則可由上述提到的以夥伴關系組織的空閑頁鏈表(free_area[MAX_ORDER])來索引。

內核內存使用

Slab

所謂尺有所長,寸有所短。以頁為最小單位分配內存對於內核管理系統中的物理內存來說的確比較方便,但內核自身最常使用的內存卻往往是很小(遠遠小於一頁)的內存塊——比如存放文件描述符、進程描述符、虛擬內存區域描述符等行為所需的內存都不足一頁。這些用來存放描述符的內存相比頁面而言,就好比是麵包屑與麵包。一個整頁中可以聚集多個這些小塊內存;而且這些小塊內存塊也和麵包屑一樣頻繁地生成/銷毀。

為了滿足內核對這種小內存塊的需要,Linux系統採用了一種被稱為slab分配器的技術。Slab分配器的實現相當復雜,但原理不難,其核心思想就是「存儲池[4]」的運用。內存片段(小塊內存)被看作對象,當被使用完後,並不直接釋放而是被緩存到「存儲池」里,留做下次使用,這無疑避免了頻繁創建與銷毀對象所帶來的額外負載。

Slab技術不但避免了內存內部分片(下文將解釋)帶來的不便(引入Slab分配器的主要目的是為了減少對夥伴系統分配演算法的調用次數——頻繁分配和回收必然會導致內存碎片——難以找到大塊連續的可用內存),而且可以很好地利用硬體緩存提高訪問速度。

Slab並非是脫離夥伴關系而獨立存在的一種內存分配方式,slab仍然是建立在頁面基礎之上,換句話說,Slab將頁面(來自於夥伴關系管理的空閑頁面鏈表)撕碎成眾多小內存塊以供分配,slab中的對象分配和銷毀使用kmem_cache_alloc與kmem_cache_free。

Kmalloc

Slab分配器不僅僅只用來存放內核專用的結構體,它還被用來處理內核對小塊內存的請求。當然鑒於Slab分配器的特點,一般來說內核程序中對小於一頁的小塊內存的請求才通過Slab分配器提供的介面Kmalloc來完成(雖然它可分配32到131072位元組的內存)。從內核內存分配的角度來講,kmalloc可被看成是get_free_page(s)的一個有效補充,內存分配粒度更靈活了。

有興趣的話,可以到/proc/slabinfo中找到內核執行現場使用的各種slab信息統計,其中你會看到系統中所有slab的使用信息。從信息中可以看到系統中除了專用結構體使用的slab外,還存在大量為Kmalloc而准備的Slab(其中有些為dma准備的)。

內核非連續內存分配(Vmalloc)

夥伴關系也好、slab技術也好,從內存管理理論角度而言目的基本是一致的,它們都是為了防止「分片」,不過分片又分為外部分片和內部分片之說,所謂內部分片是說系統為了滿足一小段內存區(連續)的需要,不得不分配了一大區域連續內存給它,從而造成了空間浪費;外部分片是指系統雖有足夠的內存,但卻是分散的碎片,無法滿足對大塊「連續內存」的需求。無論何種分片都是系統有效利用內存的障礙。slab分配器使得一個頁面內包含的眾多小塊內存可獨立被分配使用,避免了內部分片,節約了空閑內存。夥伴關系把內存塊按大小分組管理,一定程度上減輕了外部分片的危害,因為頁框分配不在盲目,而是按照大小依次有序進行,不過夥伴關系只是減輕了外部分片,但並未徹底消除。你自己比劃一下多次分配頁面後,空閑內存的剩餘情況吧。

所以避免外部分片的最終思路還是落到了如何利用不連續的內存塊組合成「看起來很大的內存塊」——這里的情況很類似於用戶空間分配虛擬內存,內存邏輯上連續,其實映射到並不一定連續的物理內存上。Linux內核借用了這個技術,允許內核程序在內核地址空間中分配虛擬地址,同樣也利用頁表(內核頁表)將虛擬地址映射到分散的內存頁上。以此完美地解決了內核內存使用中的外部分片問題。內核提供vmalloc函數分配內核虛擬內存,該函數不同於kmalloc,它可以分配較Kmalloc大得多的內存空間(可遠大於128K,但必須是頁大小的倍數),但相比Kmalloc來說,Vmalloc需要對內核虛擬地址進行重映射,必須更新內核頁表,因此分配效率上要低一些(用空間換時間)

與用戶進程相似,內核也有一個名為init_mm的mm_strcut結構來描述內核地址空間,其中頁表項pdg=swapper_pg_dir包含了系統內核空間(3G-4G)的映射關系。因此vmalloc分配內核虛擬地址必須更新內核頁表,而kmalloc或get_free_page由於分配的連續內存,所以不需要更新內核頁表。

vmalloc分配的內核虛擬內存與kmalloc/get_free_page分配的內核虛擬內存位於不同的區間,不會重疊。因為內核虛擬空間被分區管理,各司其職。進程空間地址分布從0到3G(其實是到PAGE_OFFSET,在0x86中它等於0xC0000000),從3G到vmalloc_start這段地址是物理內存映射區域(該區域中包含了內核鏡像、物理頁面表mem_map等等)比如我使用的系統內存是64M(可以用free看到),那麼(3G——3G+64M)這片內存就應該映射到物理內存,而vmalloc_start位置應在3G+64M附近(說"附近"因為是在物理內存映射區與vmalloc_start期間還會存在一個8M大小的gap來防止躍界),vmalloc_end的位置接近4G(說"接近"是因為最後位置系統會保留一片128k大小的區域用於專用頁面映射,還有可能會有高端內存映射區,這些都是細節,這里我們不做糾纏)。

上圖是內存分布的模糊輪廓

由get_free_page或Kmalloc函數所分配的連續內存都陷於物理映射區域,所以它們返回的內核虛擬地址和實際物理地址僅僅是相差一個偏移量(PAGE_OFFSET),你可以很方便的將其轉化為物理內存地址,同時內核也提供了virt_to_phys()函數將內核虛擬空間中的物理映射區地址轉化為物理地址。要知道,物理內存映射區中的地址與內核頁表是有序對應的,系統中的每個物理頁面都可以找到它對應的內核虛擬地址(在物理內存映射區中的)。

而vmalloc分配的地址則限於vmalloc_start與vmalloc_end之間。每一塊vmalloc分配的內核虛擬內存都對應一個vm_struct結構體(可別和vm_area_struct搞混,那可是進程虛擬內存區域的結構),不同的內核虛擬地址被4k大小的空閑區間隔,以防止越界——見下圖)。與進程虛擬地址的特性一樣,這些虛擬地址與物理內存沒有簡單的位移關系,必須通過內核頁表才可轉換為物理地址或物理頁。它們有可能尚未被映射,在發生缺頁時才真正分配物理頁面。

這里給出一個小程序幫助大家認清上面幾種分配函數所對應的區域。

#include<linux/mole.h>

#include<linux/slab.h>

#include<linux/vmalloc.h>

unsignedchar*pagemem;

unsignedchar*kmallocmem;

unsignedchar*vmallocmem;

intinit_mole(void)

{

pagemem = get_free_page(0);

printk("<1>pagemem=%s",pagemem);

kmallocmem = kmalloc(100,0);

printk("<1>kmallocmem=%s",kmallocmem);

vmallocmem = vmalloc(1000000);

printk("<1>vmallocmem=%s",vmallocmem);

}

voidcleanup_mole(void)

{

free_page(pagemem);

kfree(kmallocmem);

vfree(vmallocmem);

}

實例

內存映射(mmap)是Linux操作系統的一個很大特色,它可以將系統內存映射到一個文件(設備)上,以便可以通過訪問文件內容來達到訪問內存的目的。這樣做的最大好處是提高了內存訪問速度,並且可以利用文件系統的介面編程(設備在Linux中作為特殊文件處理)訪問內存,降低了開發難度。許多設備驅動程序便是利用內存映射功能將用戶空間的一段地址關聯到設備內存上,無論何時,只要內存在分配的地址范圍內進行讀寫,實際上就是對設備內存的訪問。同時對設備文件的訪問也等同於對內存區域的訪問,也就是說,通過文件操作介面可以訪問內存。Linux中的X伺服器就是一個利用內存映射達到直接高速訪問視頻卡內存的例子。

熟悉文件操作的朋友一定會知道file_operations結構中有mmap方法,在用戶執行mmap系統調用時,便會調用該方法來通過文件訪問內存——不過在調用文件系統mmap方法前,內核還需要處理分配內存區域(vma_struct)、建立頁表等工作。對於具體映射細節不作介紹了,需要強調的是,建立頁表可以採用remap_page_range方法一次建立起所有映射區的頁表,或利用vma_struct的nopage方法在缺頁時現場一頁一頁的建立頁表。第一種方法相比第二種方法簡單方便、速度快,但是靈活性不高。一次調用所有頁表便定型了,不適用於那些需要現場建立頁表的場合——比如映射區需要擴展或下面我們例子中的情況。

我們這里的實例希望利用內存映射,將系統內核中的一部分虛擬內存映射到用戶空間,以供應用程序讀取——你可利用它進行內核空間到用戶空間的大規模信息傳輸。因此我們將試圖寫一個虛擬字元設備驅動程序,通過它將系統內核空間映射到用戶空間——將內核虛擬內存映射到用戶虛擬地址。從上一節已經看到Linux內核空間中包含兩種虛擬地址:一種是物理和邏輯都連續的物理內存映射虛擬地址;另一種是邏輯連續但非物理連續的vmalloc分配的內存虛擬地址。我們的例子程序將演示把vmalloc分配的內核虛擬地址映射到用戶地址空間的全過程。

程序里主要應解決兩個問題:

第一是如何將vmalloc分配的內核虛擬內存正確地轉化成物理地址?

因為內存映射先要獲得被映射的物理地址,然後才能將其映射到要求的用戶虛擬地址上。我們已經看到內核物理內存映射區域中的地址可以被內核函數virt_to_phys轉換成實際的物理內存地址,但對於vmalloc分配的內核虛擬地址無法直接轉化成物理地址,所以我們必須對這部分虛擬內存格外「照顧」——先將其轉化成內核物理內存映射區域中的地址,然後在用virt_to_phys變為物理地址。

轉化工作需要進行如下步驟:

  • 找到vmalloc虛擬內存對應的頁表,並尋找到對應的頁表項。

  • 獲取頁表項對應的頁面指針

  • 通過頁面得到對應的內核物理內存映射區域地址。

  • 如下圖所示:

    第二是當訪問vmalloc分配區時,如果發現虛擬內存尚未被映射到物理頁,則需要處理「缺頁異常」。因此需要我們實現內存區域中的nopaga操作,以能返回被映射的物理頁面指針,在我們的實例中就是返回上面過程中的內核物理內存映射區域中的地址。由於vmalloc分配的虛擬地址與物理地址的對應關系並非分配時就可確定,必須在缺頁現場建立頁表,因此這里不能使用remap_page_range方法,只能用vma的nopage方法一頁一頁的建立。

    程序組成

    map_driver.c,它是以模塊形式載入的虛擬字元驅動程序。該驅動負責將一定長的內核虛擬地址(vmalloc分配的)映射到設備文件上。其中主要的函數有——vaddress_to_kaddress()負責對vmalloc分配的地址進行頁表解析,以找到對應的內核物理映射地址(kmalloc分配的地址);map_nopage()負責在進程訪問一個當前並不存在的VMA頁時,尋找該地址對應的物理頁,並返回該頁的指針。

    test.c它利用上述驅動模塊對應的設備文件在用戶空間讀取讀取內核內存。結果可以看到內核虛擬地址的內容(ok!),被顯示在了屏幕上。

    執行步驟

    編譯map_driver.c為map_driver.o模塊,具體參數見Makefile

    載入模塊:insmodmap_driver.o

    生成對應的設備文件

    1在/proc/devices下找到map_driver對應的設備命和設備號:grepmapdrv/proc/devices

    2建立設備文件mknodmapfilec 254 0(在我的系統里設備號為254)

    利用maptest讀取mapfile文件,將取自內核的信息列印到屏幕上。

    Ⅱ linux c語言中 cleanup:含義

    cleanup:
    這應該是給goto用的跳轉地址吧。

    Ⅲ 如何調試linux的網路驅動

    如何根據oops定位代碼行
    我們借用linux設備驅動第二篇:構造和運行模塊裡面的hello world程序來演示出錯的情況,含有錯誤代碼的hello world如下:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19

    #include <linux/init.h>
    #include <linux/mole.h>
    MODULE_LICENSE("Dual BSD/GPL");

    static int hello_init(void)
    {
    char *p = NULL;
    memcpy(p, "test", 4);
    printk(KERN_ALERT "Hello, world\n");
    return 0;
    }
    static void hello_exit(void)
    {

    printk(KERN_ALERT "Goodbye, cruel world\n");
    }

    mole_init(hello_init);
    mole_exit(hello_exit);

    Makefile文件如下:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11

    ifneq ($(KERNELRELEASE),)
    obj-m := helloworld.o
    else
    KERNELDIR ?= /lib/moles/$(shell uname -r)/build
    PWD := $(shell pwd)
    default:
    $(MAKE) -C $(KERNELDIR) M=$(PWD) moles
    endif

    clean:
    rm -rf *.o *~ core .depend .*.cmd *.ko *.mod.c .tmp_versions moles.order Mole.symvers

    很明顯,以上代碼的第8行是一個空指針錯誤。insmod後會出現下面的oops信息:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36

    [ 459.516441] BUG: unable to handle kernel NULL pointer dereference at (null)
    [ 459.516445]
    [ 459.516448] PGD 0
    [ 459.516450] Oops: 0002 [#1] SMP
    [ 459.516452] Moles linked in: helloworld(OE+) vmw_vsock_vmci_transport vsock coretemp crct10dif_pclmul crc32_pclmul ghash_clmulni_intel aesni_intel vmw_balloon snd_ens1371 aes_x86_64 lrw snd_ac97_codec gf128mul glue_helper ablk_helper cryptd ac97_bus gameport snd_pcm serio_raw snd_seq_midi snd_seq_midi_event snd_rawmidi snd_seq snd_seq_device snd_timer vmwgfx btusb ttm snd drm_kms_helper drm soundcore shpchp vmw_vmci i2c_piix4 rfcomm bnep bluetooth 6lowpan_iphc parport_pc ppdev mac_hid lp parport hid_generic usbhid hid psmouse ahci libahci floppy e1000 vmw_pvscsi vmxnet3 mptspi mptscsih mptbase scsi_transport_spi pata_acpi [last unloaded: helloworld]
    [ 459.516476] CPU: 0 PID: 4531 Comm: insmod Tainted: G OE 3.16.0-33-generic #44~14.04.1-Ubuntu
    [ 459.516478] Hardware name: VMware, Inc. VMware Virtual Platform/440BX Desktop Reference Platform, BIOS 6.00 05/20/2014
    [ 459.516479] task: ffff88003821f010 ti: ffff880038fa0000 task.ti: ffff880038fa0000
    [ 459.516480] RIP: 0010:[<ffffffffc061400d>] [<ffffffffc061400d>] hello_init+0xd/0x30 [helloworld]
    [ 459.516483] RSP: 0018:ffff880038fa3d40 EFLAGS: 00010246
    [ 459.516484] RAX: ffff88000c31d901 RBX: ffffffff81c1a020 RCX: 000000000004b29f
    [ 459.516485] RDX: 000000000004b29e RSI: 0000000000000017 RDI: ffffffffc0615024
    [ 459.516485] RBP: ffff880038fa3db8 R08: 0000000000015e80 R09: ffff88003d615e80
    [ 459.516486] R10: ffffea000030c740 R11: ffffffff81002138 R12: ffff88000c31d0c0
    [ 459.516487] R13: 0000000000000000 R14: ffffffffc0614000 R15: ffffffffc0616000
    [ 459.516488] FS: 00007f8a6fa86740(0000) GS:ffff88003d600000(0000) knlGS:0000000000000000
    [ 459.516489] CS: 0010 DS: 0000 ES: 0000 CR0: 0000000080050033
    [ 459.516490] CR2: 0000000000000000 CR3: 0000000038760000 CR4: 00000000003407f0
    [ 459.516522] DR0: 0000000000000000 DR1: 0000000000000000 DR2: 0000000000000000
    [ 459.516524] DR3: 0000000000000000 DR6: 00000000fffe0ff0 DR7: 0000000000000400
    [ 459.516524] Stack:
    [ 459.57] ffff880038fa3db8 ffffffff81002144 0000000000000001 0000000000000001
    [ 459.516540] 0000000000000001 ffff880028ab5040 0000000000000001 ffff880038fa3da0
    [ 459.516541] ffffffff8119d0b2 ffffffffc0616018 00000000bd1141ac ffffffffc0616018
    [ 459.516543] Call Trace:
    [ 459.516548] [<ffffffff81002144>] ? do_one_initcall+0xd4/0x210
    [ 459.516550] [<ffffffff8119d0b2>] ? __vunmap+0xb2/0x100
    [ 459.516554] [<ffffffff810ed9b1>] load_mole+0x13c1/0x1b80
    [ 459.516557] [<ffffffff810e9560>] ? store_uevent+0x40/0x40
    [ 459.516560] [<ffffffff810ee2e6>] SyS_finit_mole+0x86/0xb0
    [ 459.516563] [<ffffffff8176be6d>] system_call_fastpath+0x1a/0x1f
    [ 459.516564] Code: <c7> 04 25 00 00 00 00 74 65 73 74 31 c0 48 89 e5 e8 a2 86 14 c1 31
    [ 459.516573] RIP [<ffffffffc061400d>] hello_init+0xd/0x30 [helloworld]
    [ 459.516575] RSP <ffff880038fa3d40>
    [ 459.516576] CR2: 0000000000000000
    [ 459.516578] ---[ end trace 7c52cc8624b7ea60 ]---


    下面簡單分析下oops信息的內容。
    由BUG: unable to handle kernel NULL pointer dereference at (null)知道出錯的原因是使用了空指針。標紅的部分確定了具體出錯的函數。Moles linked in: helloworld表明了引起oops問題的具體模塊。call trace列出了函數的調用信息。這些信息中其中標紅的部分是最有用的,我們可以根據其信息找到具體出錯的代碼行。下面就來說下,如何定位到具體出錯的代碼行。
    第一步我們需要使用objmp把編譯生成的bin文件反匯編,我們這里就是helloworld.o,如下命令把反匯編信息保存到err.txt文件中:

    1

    objmp helloworld.o -D > err.txt

    err.txt內容如下:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    37
    38
    39
    40
    41
    42
    43
    44
    45
    46
    47
    48
    49
    50
    51
    52
    53
    54
    55
    56
    57
    58
    59
    60
    61
    62
    63
    64
    65
    66
    67
    68
    69
    70
    71
    72
    73
    74
    75
    76
    77
    78
    79
    80
    81
    82
    83
    84
    85
    86
    87
    88
    89
    90
    91

    helloworld.o: file format elf64-x86-64

    Disassembly of section .text:

    <span style="color:#ff0000;">0000000000000000 <init_mole>:</span>
    0: e8 00 00 00 00 callq 5 <init_mole+0x5>
    5: 55 push %rbp
    6: 48 c7 c7 00 00 00 00 mov $0x0,%rdi
    d: c7 04 25 00 00 00 00 movl $0x74736574,0x0
    14: 74 65 73 74
    18: 31 c0 xor %eax,%eax
    1a: 48 89 e5 mov %rsp,%rbp
    1d: e8 00 00 00 00 callq 22 <init_mole+0x22>
    22: 31 c0 xor %eax,%eax
    24: 5d pop %rbp
    25: c3 retq
    26: 66 2e 0f 1f 84 00 00 nopw %cs:0x0(%rax,%rax,1)
    2d: 00 00 00

    0000000000000030 <cleanup_mole>:
    30: e8 00 00 00 00 callq 35 <cleanup_mole+0x5>
    35: 55 push %rbp
    36: 48 c7 c7 00 00 00 00 mov $0x0,%rdi
    3d: 31 c0 xor %eax,%eax
    3f: 48 89 e5 mov %rsp,%rbp
    42: e8 00 00 00 00 callq 47 <cleanup_mole+0x17>
    47: 5d pop %rbp
    48: c3 retq

    Disassembly of section .rodata.str1.1:

    0000000000000000 <.rodata.str1.1>:
    0: 01 31 add %esi,(%rcx)
    2: 48 rex.W
    3: 65 gs
    4: 6c insb (%dx),%es:(%rdi)
    5: 6c insb (%dx),%es:(%rdi)
    6: 6f outsl %ds:(%rsi),(%dx)
    7: 2c 20 sub $0x20,%al
    9: 77 6f ja 7a <cleanup_mole+0x4a>
    b: 72 6c jb 79 <cleanup_mole+0x49>
    d: 64 0a 00 or %fs:(%rax),%al
    10: 01 31 add %esi,(%rcx)
    12: 47 6f rex.RXB outsl %ds:(%rsi),(%dx)
    14: 6f outsl %ds:(%rsi),(%dx)
    15: 64 fs
    16: 62 (bad)
    17: 79 65 jns 7e <cleanup_mole+0x4e>
    19: 2c 20 sub $0x20,%al
    1b: 63 72 75 movslq 0x75(%rdx),%esi
    1e: 65 gs
    1f: 6c insb (%dx),%es:(%rdi)
    20: 20 77 6f and %dh,0x6f(%rdi)
    23: 72 6c jb 91 <cleanup_mole+0x61>
    25: 64 0a 00 or %fs:(%rax),%al

    Disassembly of section .modinfo:

    0000000000000000 <__UNIQUE_ID_license0>:
    0: 6c insb (%dx),%es:(%rdi)
    1: 69 63 65 6e 73 65 3d imul $0x3d65736e,0x65(%rbx),%esp
    8: 44 75 61 rex.R jne 6c <cleanup_mole+0x3c>
    b: 6c insb (%dx),%es:(%rdi)
    c: 20 42 53 and %al,0x53(%rdx)
    f: 44 2f rex.R (bad)
    11: 47 50 rex.RXB push %r8
    13: 4c rex.WR
    ...

    Disassembly of section .comment:

    0000000000000000 <.comment>:
    0: 00 47 43 add %al,0x43(%rdi)
    3: 43 3a 20 rex.XB cmp (%r8),%spl
    6: 28 55 62 sub %dl,0x62(%rbp)
    9: 75 6e jne 79 <cleanup_mole+0x49>
    b: 74 75 je 82 <cleanup_mole+0x52>
    d: 20 34 2e and %dh,(%rsi,%rbp,1)
    10: 38 2e cmp %ch,(%rsi)
    12: 32 2d 31 39 75 62 xor 0x62753931(%rip),%ch # 62753949 <cleanup_mole+0x62753919>
    18: 75 6e jne 88 <cleanup_mole+0x58>
    1a: 74 75 je 91 <cleanup_mole+0x61>
    1c: 31 29 xor %ebp,(%rcx)
    1e: 20 34 2e and %dh,(%rsi,%rbp,1)
    21: 38 2e cmp %ch,(%rsi)
    23: 32 00 xor (%rax),%al

    Disassembly of section __mcount_loc:

    0000000000000000 <__mcount_loc>:

    由oops信息我們知道出錯的地方是hello_init的地址偏移0xd。而有mp信息知道,hello_init的地址即init_mole的地址,因為hello_init即本模塊的初始化入口,如果在其他函數中出錯,mp信息中就會有相應符號的地址。由此我們得到出錯的地址是0xd,下一步我們就可以使用addr2line來定位具體的代碼行:
    addr2line -C -f -e helloworld.o d
    此命令就可以得到行號了。以上就是通過oops信息來定位驅動崩潰的行號。
    其他調試手段
    以上就是通過oops信息來獲取具體的導致崩潰的代碼行,這種情況都是用在遇到比較嚴重的錯誤導致內核掛掉的情況下使用的,另外比較常用的調試手段就是使用printk來輸出列印信息。printk的使用方法類似printf,只是要注意一下列印級別,詳細介紹在linux設備驅動第二篇:構造和運行模塊中已有描述,另外需要注意的是大量使用printk會嚴重拖慢系統,所以使用過程中也要注意。
    以上兩種調試手段是我工作中最常用的,還有一些其他的調試手段,例如使用/proc文件系統,使用trace等用戶空間程序,使用gdb,kgdb等,這些調試手段一般不太容易使用或者不太方便使用,所以這里就不在介紹了。

    Ⅳ linux 下 svn 每次更新都提示被鎖,哪怕我svn cleanup之後,下次還這樣,而且,提示更新了但是線上沒變

    從你貼的信息來看,是SVN伺服器端的post-commit這個鉤子報錯,從報錯內容分析,估計是post-commit這個鉤子調用了svn update去更新你們的線上測試環境,但update時發現html-dev文件夾被鎖,要求你去cleanup這個文件夾。

    我估計你cleanup的不是伺服器上的那個文件夾,而是你自己客戶端的這個文件夾。去把伺服器上的那個文件夾cleanup一下,然後再從你的客戶端commit一次看看效果。

    Ⅳ linux 回收站的問題

    rm命令刪除是不經過回收站的。看看能不能設回收站大小。

    Ⅵ Linux多進程和線程同步的幾種方式

    Linux 線程同步的三種方法
    線程的最大特點是資源的共享性,但資源共享中的同步問題是多線程編程的難點。linux下提供了多種方式來處理線程同步,最常用的是互斥鎖、條件變數和信號量。
    一、互斥鎖(mutex)
    通過鎖機制實現線程間的同步。
    初始化鎖。在Linux下,線程的互斥量數據類型是pthread_mutex_t。在使用前,要對它進行初始化。
    靜態分配:pthread_mutex_t mutex = PTHREAD_MUTEX_INITIALIZER;
    動態分配:int pthread_mutex_init(pthread_mutex_t *mutex, const pthread_mutex_attr_t *mutexattr);
    加鎖。對共享資源的訪問,要對互斥量進行加鎖,如果互斥量已經上了鎖,調用線程會阻塞,直到互斥量被解鎖。
    int pthread_mutex_lock(pthread_mutex *mutex);
    int pthread_mutex_trylock(pthread_mutex_t *mutex);
    解鎖。在完成了對共享資源的訪問後,要對互斥量進行解鎖。
    int pthread_mutex_unlock(pthread_mutex_t *mutex);
    銷毀鎖。鎖在是使用完成後,需要進行銷毀以釋放資源。
    int pthread_mutex_destroy(pthread_mutex *mutex);
    [csharp] view plain
    #include <cstdio>
    #include <cstdlib>
    #include <unistd.h>
    #include <pthread.h>
    #include "iostream"
    using namespace std;
    pthread_mutex_t mutex = PTHREAD_MUTEX_INITIALIZER;
    int tmp;
    void* thread(void *arg)
    {
    cout << "thread id is " << pthread_self() << endl;
    pthread_mutex_lock(&mutex);
    tmp = 12;
    cout << "Now a is " << tmp << endl;
    pthread_mutex_unlock(&mutex);
    return NULL;
    }
    int main()
    {
    pthread_t id;
    cout << "main thread id is " << pthread_self() << endl;
    tmp = 3;
    cout << "In main func tmp = " << tmp << endl;
    if (!pthread_create(&id, NULL, thread, NULL))
    {
    cout << "Create thread success!" << endl;
    }
    else
    {
    cout << "Create thread failed!" << endl;
    }
    pthread_join(id, NULL);
    pthread_mutex_destroy(&mutex);
    return 0;
    }
    //編譯:g++ -o thread testthread.cpp -lpthread
    二、條件變數(cond)
    互斥鎖不同,條件變數是用來等待而不是用來上鎖的。條件變數用來自動阻塞一個線程,直到某特殊情況發生為止。通常條件變數和互斥鎖同時使用。條件變數分為兩部分: 條件和變數。條件本身是由互斥量保護的。線程在改變條件狀態前先要鎖住互斥量。條件變數使我們可以睡眠等待某種條件出現。條件變數是利用線程間共享的全局變數進行同步的一種機制,主要包括兩個動作:一個線程等待"條件變數的條件成立"而掛起;另一個線程使"條件成立"(給出條件成立信號)。條件的檢測是在互斥鎖的保護下進行的。如果一個條件為假,一個線程自動阻塞,並釋放等待狀態改變的互斥鎖。如果另一個線程改變了條件,它發信號給關聯的條件變數,喚醒一個或多個等待它的線程,重新獲得互斥鎖,重新評價條件。如果兩進程共享可讀寫的內存,條件變數可以被用來實現這兩進程間的線程同步。
    初始化條件變數。
    靜態態初始化,pthread_cond_t cond = PTHREAD_COND_INITIALIER;
    動態初始化,int pthread_cond_init(pthread_cond_t *cond, pthread_condattr_t *cond_attr);
    等待條件成立。釋放鎖,同時阻塞等待條件變數為真才行。timewait()設置等待時間,仍未signal,返回ETIMEOUT(加鎖保證只有一個線程wait)
    int pthread_cond_wait(pthread_cond_t *cond, pthread_mutex_t *mutex);
    int pthread_cond_timewait(pthread_cond_t *cond,pthread_mutex *mutex,const timespec *abstime);
    激活條件變數。pthread_cond_signal,pthread_cond_broadcast(激活所有等待線程)
    int pthread_cond_signal(pthread_cond_t *cond);
    int pthread_cond_broadcast(pthread_cond_t *cond); //解除所有線程的阻塞
    清除條件變數。無線程等待,否則返回EBUSY
    int pthread_cond_destroy(pthread_cond_t *cond);
    [cpp] view plain
    #include <stdio.h>
    #include <pthread.h>
    #include "stdlib.h"
    #include "unistd.h"
    pthread_mutex_t mutex;
    pthread_cond_t cond;
    void hander(void *arg)
    {
    free(arg);
    (void)pthread_mutex_unlock(&mutex);
    }
    void *thread1(void *arg)
    {
    pthread_cleanup_push(hander, &mutex);
    while(1)
    {
    printf("thread1 is running\n");
    pthread_mutex_lock(&mutex);
    pthread_cond_wait(&cond, &mutex);
    printf("thread1 applied the condition\n");
    pthread_mutex_unlock(&mutex);
    sleep(4);
    }
    pthread_cleanup_pop(0);
    }
    void *thread2(void *arg)
    {
    while(1)
    {
    printf("thread2 is running\n");
    pthread_mutex_lock(&mutex);
    pthread_cond_wait(&cond, &mutex);
    printf("thread2 applied the condition\n");
    pthread_mutex_unlock(&mutex);
    sleep(1);
    }
    }
    int main()
    {
    pthread_t thid1,thid2;
    printf("condition variable study!\n");
    pthread_mutex_init(&mutex, NULL);
    pthread_cond_init(&cond, NULL);
    pthread_create(&thid1, NULL, thread1, NULL);
    pthread_create(&thid2, NULL, thread2, NULL);
    sleep(1);
    do
    {
    pthread_cond_signal(&cond);
    }while(1);
    sleep(20);
    pthread_exit(0);
    return 0;
    }
    [cpp] view plain
    #include <pthread.h>
    #include <unistd.h>
    #include "stdio.h"
    #include "stdlib.h"
    static pthread_mutex_t mtx = PTHREAD_MUTEX_INITIALIZER;
    static pthread_cond_t cond = PTHREAD_COND_INITIALIZER;
    struct node
    {
    int n_number;
    struct node *n_next;
    }*head = NULL;

    static void cleanup_handler(void *arg)
    {
    printf("Cleanup handler of second thread./n");
    free(arg);
    (void)pthread_mutex_unlock(&mtx);
    }
    static void *thread_func(void *arg)
    {
    struct node *p = NULL;
    pthread_cleanup_push(cleanup_handler, p);
    while (1)
    {
    //這個mutex主要是用來保證pthread_cond_wait的並發性
    pthread_mutex_lock(&mtx);
    while (head == NULL)
    {
    //這個while要特別說明一下,單個pthread_cond_wait功能很完善,為何
    //這里要有一個while (head == NULL)呢?因為pthread_cond_wait里的線
    //程可能會被意外喚醒,如果這個時候head != NULL,則不是我們想要的情況。
    //這個時候,應該讓線程繼續進入pthread_cond_wait
    // pthread_cond_wait會先解除之前的pthread_mutex_lock鎖定的mtx,
    //然後阻塞在等待對列里休眠,直到再次被喚醒(大多數情況下是等待的條件成立
    //而被喚醒,喚醒後,該進程會先鎖定先pthread_mutex_lock(&mtx);,再讀取資源
    //用這個流程是比較清楚的
    pthread_cond_wait(&cond, &mtx);
    p = head;
    head = head->n_next;
    printf("Got %d from front of queue/n", p->n_number);
    free(p);
    }
    pthread_mutex_unlock(&mtx); //臨界區數據操作完畢,釋放互斥鎖
    }
    pthread_cleanup_pop(0);
    return 0;
    }
    int main(void)
    {
    pthread_t tid;
    int i;
    struct node *p;
    //子線程會一直等待資源,類似生產者和消費者,但是這里的消費者可以是多個消費者,而
    //不僅僅支持普通的單個消費者,這個模型雖然簡單,但是很強大
    pthread_create(&tid, NULL, thread_func, NULL);
    sleep(1);
    for (i = 0; i < 10; i++)
    {
    p = (struct node*)malloc(sizeof(struct node));
    p->n_number = i;
    pthread_mutex_lock(&mtx); //需要操作head這個臨界資源,先加鎖,
    p->n_next = head;
    head = p;
    pthread_cond_signal(&cond);
    pthread_mutex_unlock(&mtx); //解鎖
    sleep(1);
    }
    printf("thread 1 wanna end the line.So cancel thread 2./n");
    //關於pthread_cancel,有一點額外的說明,它是從外部終止子線程,子線程會在最近的取消點,退出
    //線程,而在我們的代碼里,最近的取消點肯定就是pthread_cond_wait()了。
    pthread_cancel(tid);
    pthread_join(tid, NULL);
    printf("All done -- exiting/n");
    return 0;
    }
    三、信號量(sem)
    如同進程一樣,線程也可以通過信號量來實現通信,雖然是輕量級的。信號量函數的名字都以"sem_"打頭。線程使用的基本信號量函數有四個。
    信號量初始化。
    int sem_init (sem_t *sem , int pshared, unsigned int value);
    這是對由sem指定的信號量進行初始化,設置好它的共享選項(linux 只支持為0,即表示它是當前進程的局部信號量),然後給它一個初始值VALUE。
    等待信號量。給信號量減1,然後等待直到信號量的值大於0。
    int sem_wait(sem_t *sem);
    釋放信號量。信號量值加1。並通知其他等待線程。
    int sem_post(sem_t *sem);
    銷毀信號量。我們用完信號量後都它進行清理。歸還佔有的一切資源。
    int sem_destroy(sem_t *sem);
    [cpp] view plain
    #include <stdlib.h>
    #include <stdio.h>
    #include <unistd.h>
    #include <pthread.h>
    #include <semaphore.h>
    #include <errno.h>
    #define return_if_fail(p) if((p) == 0){printf ("[%s]:func error!/n", __func__);return;}
    typedef struct _PrivInfo
    {
    sem_t s1;
    sem_t s2;
    time_t end_time;
    }PrivInfo;

    static void info_init (PrivInfo* thiz);
    static void info_destroy (PrivInfo* thiz);
    static void* pthread_func_1 (PrivInfo* thiz);
    static void* pthread_func_2 (PrivInfo* thiz);

    int main (int argc, char** argv)
    {
    pthread_t pt_1 = 0;
    pthread_t pt_2 = 0;
    int ret = 0;
    PrivInfo* thiz = NULL;
    thiz = (PrivInfo* )malloc (sizeof (PrivInfo));
    if (thiz == NULL)
    {
    printf ("[%s]: Failed to malloc priv./n");
    return -1;
    }
    info_init (thiz);
    ret = pthread_create (&pt_1, NULL, (void*)pthread_func_1, thiz);
    if (ret != 0)
    {
    perror ("pthread_1_create:");
    }
    ret = pthread_create (&pt_2, NULL, (void*)pthread_func_2, thiz);
    if (ret != 0)
    {
    perror ("pthread_2_create:");
    }
    pthread_join (pt_1, NULL);
    pthread_join (pt_2, NULL);
    info_destroy (thiz);
    return 0;
    }
    static void info_init (PrivInfo* thiz)
    {
    return_if_fail (thiz != NULL);
    thiz->end_time = time(NULL) + 10;
    sem_init (&thiz->s1, 0, 1);
    sem_init (&thiz->s2, 0, 0);
    return;
    }
    static void info_destroy (PrivInfo* thiz)
    {
    return_if_fail (thiz != NULL);
    sem_destroy (&thiz->s1);
    sem_destroy (&thiz->s2);
    free (thiz);
    thiz = NULL;
    return;
    }
    static void* pthread_func_1 (PrivInfo* thiz)
    {
    return_if_fail(thiz != NULL);
    while (time(NULL) < thiz->end_time)
    {
    sem_wait (&thiz->s2);
    printf ("pthread1: pthread1 get the lock./n");
    sem_post (&thiz->s1);
    printf ("pthread1: pthread1 unlock/n");
    sleep (1);
    }
    return;
    }
    static void* pthread_func_2 (PrivInfo* thiz)
    {
    return_if_fail (thiz != NULL);
    while (time (NULL) < thiz->end_time)
    {
    sem_wait (&thiz->s1);
    printf ("pthread2: pthread2 get the unlock./n");
    sem_post (&thiz->s2);
    printf ("pthread2: pthread2 unlock./n");
    sleep (1);
    }
    return;
    }

    Ⅶ linux線程pthread_cleanuo_push 函數問題

    pthread_cleanup_push來注冊清理函數rtn,這個函數有一個參數arg。在以下三種情形之一發生時,注冊的清理函數被執行:
    1)調用pthread_exit。
    2)作為對取消線程請求(pthread_cancel)的響應。
    3)以非0參數調用pthread_cleanup_pop。
    注意:
    1)如果線程只是由於簡單的返回而終止的,則清除函數不會被調用。
    2)如果pthread_cleanup_pop被傳遞0參數,則清除函數不會被調用,但是會清除處於棧頂的清理函數。

    Ⅷ 如何讓linux驅動模塊隨機器啟動

    LINUX中的驅動設計是嵌入式LINUX開發中十分重要的部分,它要求開發者不僅要熟悉LINUX的內核機制、驅動程序與用戶級應用程序的介面關系、考慮系統中對設備的並發操作等等,而且還要非常熟悉所開發硬體的工作原理。這對驅動開發者提出了比較高的要求,本章是給大家了解驅動設計提供一個簡單入門的一個實例,並不需要提供太多與硬體相關的內容,這部分應該是通過仔細閱讀晶元廠家提供的資料來解決。

    驅動程序的作用是應用程序與硬體之間的一個中間軟體層,驅動程序應該為應用程序展現硬體的所有功能,不應該強加其他的約束,對於硬體使用的許可權和限制應該由應用程序層控制。但是有時驅動程序的設計是跟所開發的項目相關的,這時就可能在驅動層加入一些與應用相關的設計考慮,主要是因為在驅動層的效率比應用層高,同時為了項目的需要可能只強化或優化硬體的某個功能,而弱化或關閉其他一些功能;到底需要展現硬體的哪些功能全都由開發者根據需要而定。驅動程序有時會被多個進程同時使用,這時我們要考慮如何處理並發的問題,就需要調用一些內核的函數使用互斥量和鎖等機制。

    驅動程序主要需要考慮下面三個方面:提供盡量多的選項給用戶,提高驅動程序的速度和效率,盡量使驅動程序簡單,使之易於維護。

    LINUX的驅動開發調試有兩種方法,一種是直接編譯到內核,再運行新的內核來測試;二是編譯為模塊的形式,單獨載入運行調試。第一種方法效率較低,但在某些場合是唯一的方法。模塊方式調試效率很高,它使用insmod工具將編譯的模塊直接插入內核,如果出現故障,可以使用rmmod從內核中卸載模塊。不需要重新啟動內核,這使驅動調試效率大大提高。

    模塊中必須的兩個基本函數:在Linux 2.4 內核中是函數init_mole和cleanup_mole;在Linux 2.6 的內核中是宏mole_init(your_init_func) 和mole_exit(your_exit_func)。初始化函數的作用一般是分配資源、注冊設備方法等,退出函數的作用一般是釋放所申請的資源等。

    Ⅸ Linux下線程同步的幾種方法

    Linux 線程同步的三種方法
    線程的最大特點是資源的共享性,但資源共享中的同步問題是多線程編程的難點。linux下提供了多種方式來處理線程同步,最常用的是互斥鎖、條件變數和信號量。
    一、互斥鎖(mutex)
    通過鎖機制實現線程間的同步。
    初始化鎖。在Linux下,線程的互斥量數據類型是pthread_mutex_t。在使用前,要對它進行初始化。
    靜態分配:pthread_mutex_t mutex = PTHREAD_MUTEX_INITIALIZER;
    動態分配:int pthread_mutex_init(pthread_mutex_t *mutex, const pthread_mutex_attr_t *mutexattr);
    加鎖。對共享資源的訪問,要對互斥量進行加鎖,如果互斥量已經上了鎖,調用線程會阻塞,直到互斥量被解鎖。
    int pthread_mutex_lock(pthread_mutex *mutex);
    int pthread_mutex_trylock(pthread_mutex_t *mutex);
    解鎖。在完成了對共享資源的訪問後,要對互斥量進行解鎖。
    int pthread_mutex_unlock(pthread_mutex_t *mutex);
    銷毀鎖。鎖在是使用完成後,需要進行銷毀以釋放資源。
    int pthread_mutex_destroy(pthread_mutex *mutex);
    [csharp] view plain
    #include <cstdio>
    #include <cstdlib>
    #include <unistd.h>
    #include <pthread.h>
    #include "iostream"
    using namespace std;
    pthread_mutex_t mutex = PTHREAD_MUTEX_INITIALIZER;
    int tmp;
    void* thread(void *arg)
    {
    cout << "thread id is " << pthread_self() << endl;
    pthread_mutex_lock(&mutex);
    tmp = 12;
    cout << "Now a is " << tmp << endl;
    pthread_mutex_unlock(&mutex);
    return NULL;
    }
    int main()
    {
    pthread_t id;
    cout << "main thread id is " << pthread_self() << endl;
    tmp = 3;
    cout << "In main func tmp = " << tmp << endl;
    if (!pthread_create(&id, NULL, thread, NULL))
    {
    cout << "Create thread success!" << endl;
    }
    else
    {
    cout << "Create thread failed!" << endl;
    }
    pthread_join(id, NULL);
    pthread_mutex_destroy(&mutex);
    return 0;
    }
    //編譯:g++ -o thread testthread.cpp -lpthread
    二、條件變數(cond)
    互斥鎖不同,條件變數是用來等待而不是用來上鎖的。條件變數用來自動阻塞一個線程,直到某特殊情況發生為止。通常條件變數和互斥鎖同時使用。條件變數分為兩部分: 條件和變數。條件本身是由互斥量保護的。線程在改變條件狀態前先要鎖住互斥量。條件變數使我們可以睡眠等待某種條件出現。條件變數是利用線程間共享的全局變數進行同步的一種機制,主要包括兩個動作:一個線程等待"條件變數的條件成立"而掛起;另一個線程使"條件成立"(給出條件成立信號)。條件的檢測是在互斥鎖的保護下進行的。如果一個條件為假,一個線程自動阻塞,並釋放等待狀態改變的互斥鎖。如果另一個線程改變了條件,它發信號給關聯的條件變數,喚醒一個或多個等待它的線程,重新獲得互斥鎖,重新評價條件。如果兩進程共享可讀寫的內存,條件變數可以被用來實現這兩進程間的線程同步。
    初始化條件變數。
    靜態態初始化,pthread_cond_t cond = PTHREAD_COND_INITIALIER;
    動態初始化,int pthread_cond_init(pthread_cond_t *cond, pthread_condattr_t *cond_attr);
    等待條件成立。釋放鎖,同時阻塞等待條件變數為真才行。timewait()設置等待時間,仍未signal,返回ETIMEOUT(加鎖保證只有一個線程wait)
    int pthread_cond_wait(pthread_cond_t *cond, pthread_mutex_t *mutex);
    int pthread_cond_timewait(pthread_cond_t *cond,pthread_mutex *mutex,const timespec *abstime);
    激活條件變數。pthread_cond_signal,pthread_cond_broadcast(激活所有等待線程)
    int pthread_cond_signal(pthread_cond_t *cond);
    int pthread_cond_broadcast(pthread_cond_t *cond); //解除所有線程的阻塞
    清除條件變數。無線程等待,否則返回EBUSY
    int pthread_cond_destroy(pthread_cond_t *cond);
    [cpp] view plain
    #include <stdio.h>
    #include <pthread.h>
    #include "stdlib.h"
    #include "unistd.h"
    pthread_mutex_t mutex;
    pthread_cond_t cond;
    void hander(void *arg)
    {
    free(arg);
    (void)pthread_mutex_unlock(&mutex);
    }
    void *thread1(void *arg)
    {
    pthread_cleanup_push(hander, &mutex);
    while(1)
    {
    printf("thread1 is running\n");
    pthread_mutex_lock(&mutex);
    pthread_cond_wait(&cond, &mutex);
    printf("thread1 applied the condition\n");
    pthread_mutex_unlock(&mutex);
    sleep(4);
    }
    pthread_cleanup_pop(0);
    }
    void *thread2(void *arg)
    {
    while(1)
    {
    printf("thread2 is running\n");
    pthread_mutex_lock(&mutex);
    pthread_cond_wait(&cond, &mutex);
    printf("thread2 applied the condition\n");
    pthread_mutex_unlock(&mutex);
    sleep(1);
    }
    }
    int main()
    {
    pthread_t thid1,thid2;
    printf("condition variable study!\n");
    pthread_mutex_init(&mutex, NULL);
    pthread_cond_init(&cond, NULL);
    pthread_create(&thid1, NULL, thread1, NULL);
    pthread_create(&thid2, NULL, thread2, NULL);
    sleep(1);
    do
    {
    pthread_cond_signal(&cond);
    }while(1);
    sleep(20);
    pthread_exit(0);
    return 0;
    }
    [cpp] view plain
    #include <pthread.h>
    #include <unistd.h>
    #include "stdio.h"
    #include "stdlib.h"
    static pthread_mutex_t mtx = PTHREAD_MUTEX_INITIALIZER;
    static pthread_cond_t cond = PTHREAD_COND_INITIALIZER;
    struct node
    {
    int n_number;
    struct node *n_next;
    }*head = NULL;

    static void cleanup_handler(void *arg)
    {
    printf("Cleanup handler of second thread./n");
    free(arg);
    (void)pthread_mutex_unlock(&mtx);
    }
    static void *thread_func(void *arg)
    {
    struct node *p = NULL;
    pthread_cleanup_push(cleanup_handler, p);
    while (1)
    {
    //這個mutex主要是用來保證pthread_cond_wait的並發性
    pthread_mutex_lock(&mtx);
    while (head == NULL)
    {
    //這個while要特別說明一下,單個pthread_cond_wait功能很完善,為何
    //這里要有一個while (head == NULL)呢?因為pthread_cond_wait里的線
    //程可能會被意外喚醒,如果這個時候head != NULL,則不是我們想要的情況。
    //這個時候,應該讓線程繼續進入pthread_cond_wait
    // pthread_cond_wait會先解除之前的pthread_mutex_lock鎖定的mtx,
    //然後阻塞在等待對列里休眠,直到再次被喚醒(大多數情況下是等待的條件成立
    //而被喚醒,喚醒後,該進程會先鎖定先pthread_mutex_lock(&mtx);,再讀取資源
    //用這個流程是比較清楚的
    pthread_cond_wait(&cond, &mtx);
    p = head;
    head = head->n_next;
    printf("Got %d from front of queue/n", p->n_number);
    free(p);
    }
    pthread_mutex_unlock(&mtx); //臨界區數據操作完畢,釋放互斥鎖
    }
    pthread_cleanup_pop(0);
    return 0;
    }
    int main(void)
    {
    pthread_t tid;
    int i;
    struct node *p;
    //子線程會一直等待資源,類似生產者和消費者,但是這里的消費者可以是多個消費者,而
    //不僅僅支持普通的單個消費者,這個模型雖然簡單,但是很強大
    pthread_create(&tid, NULL, thread_func, NULL);
    sleep(1);
    for (i = 0; i < 10; i++)
    {
    p = (struct node*)malloc(sizeof(struct node));
    p->n_number = i;
    pthread_mutex_lock(&mtx); //需要操作head這個臨界資源,先加鎖,
    p->n_next = head;
    head = p;
    pthread_cond_signal(&cond);
    pthread_mutex_unlock(&mtx); //解鎖
    sleep(1);
    }
    printf("thread 1 wanna end the line.So cancel thread 2./n");
    //關於pthread_cancel,有一點額外的說明,它是從外部終止子線程,子線程會在最近的取消點,退出
    //線程,而在我們的代碼里,最近的取消點肯定就是pthread_cond_wait()了。
    pthread_cancel(tid);
    pthread_join(tid, NULL);
    printf("All done -- exiting/n");
    return 0;
    }
    三、信號量(sem)
    如同進程一樣,線程也可以通過信號量來實現通信,雖然是輕量級的。信號量函數的名字都以"sem_"打頭。線程使用的基本信號量函數有四個。
    信號量初始化。
    int sem_init (sem_t *sem , int pshared, unsigned int value);
    這是對由sem指定的信號量進行初始化,設置好它的共享選項(linux 只支持為0,即表示它是當前進程的局部信號量),然後給它一個初始值VALUE。
    等待信號量。給信號量減1,然後等待直到信號量的值大於0。
    int sem_wait(sem_t *sem);
    釋放信號量。信號量值加1。並通知其他等待線程。
    int sem_post(sem_t *sem);
    銷毀信號量。我們用完信號量後都它進行清理。歸還佔有的一切資源。
    int sem_destroy(sem_t *sem);
    [cpp] view plain
    #include <stdlib.h>
    #include <stdio.h>
    #include <unistd.h>
    #include <pthread.h>
    #include <semaphore.h>
    #include <errno.h>
    #define return_if_fail(p) if((p) == 0){printf ("[%s]:func error!/n", __func__);return;}
    typedef struct _PrivInfo
    {
    sem_t s1;
    sem_t s2;
    time_t end_time;
    }PrivInfo;

    static void info_init (PrivInfo* thiz);
    static void info_destroy (PrivInfo* thiz);
    static void* pthread_func_1 (PrivInfo* thiz);
    static void* pthread_func_2 (PrivInfo* thiz);

    int main (int argc, char** argv)
    {
    pthread_t pt_1 = 0;
    pthread_t pt_2 = 0;
    int ret = 0;
    PrivInfo* thiz = NULL;
    thiz = (PrivInfo* )malloc (sizeof (PrivInfo));
    if (thiz == NULL)
    {
    printf ("[%s]: Failed to malloc priv./n");
    return -1;
    }
    info_init (thiz);
    ret = pthread_create (&pt_1, NULL, (void*)pthread_func_1, thiz);
    if (ret != 0)
    {
    perror ("pthread_1_create:");
    }
    ret = pthread_create (&pt_2, NULL, (void*)pthread_func_2, thiz);
    if (ret != 0)
    {
    perror ("pthread_2_create:");
    }
    pthread_join (pt_1, NULL);
    pthread_join (pt_2, NULL);
    info_destroy (thiz);
    return 0;
    }
    static void info_init (PrivInfo* thiz)
    {
    return_if_fail (thiz != NULL);
    thiz->end_time = time(NULL) + 10;
    sem_init (&thiz->s1, 0, 1);
    sem_init (&thiz->s2, 0, 0);
    return;
    }
    static void info_destroy (PrivInfo* thiz)
    {
    return_if_fail (thiz != NULL);
    sem_destroy (&thiz->s1);
    sem_destroy (&thiz->s2);
    free (thiz);
    thiz = NULL;
    return;
    }
    static void* pthread_func_1 (PrivInfo* thiz)
    {
    return_if_fail(thiz != NULL);
    while (time(NULL) < thiz->end_time)
    {
    sem_wait (&thiz->s2);
    printf ("pthread1: pthread1 get the lock./n");
    sem_post (&thiz->s1);
    printf ("pthread1: pthread1 unlock/n");
    sleep (1);
    }
    return;
    }
    static void* pthread_func_2 (PrivInfo* thiz)
    {
    return_if_fail (thiz != NULL);
    while (time (NULL) < thiz->end_time)
    {
    sem_wait (&thiz->s1);
    printf ("pthread2: pthread2 get the unlock./n");
    sem_post (&thiz->s2);
    printf ("pthread2: pthread2 unlock./n");
    sleep (1);
    }
    return;
    }

    Ⅹ Linux-查找系統中已安裝的rpm包

    右鍵打開終端,或者是新建終端:

    rpm –qa 查詢Linux系統中的所有軟體包。

    rpm –q 包名稱 查詢指定名稱軟體包是否安裝。

    熱點內容
    python實用代碼 發布:2025-05-13 22:19:41 瀏覽:842
    dede資料庫的配置文件 發布:2025-05-13 22:19:08 瀏覽:966
    給字元加密 發布:2025-05-13 22:12:32 瀏覽:972
    資料庫系統實現答案 發布:2025-05-13 22:11:57 瀏覽:140
    哪個軟體可以共存安卓 發布:2025-05-13 22:10:15 瀏覽:552
    上傳宦妃天下野泉肉肉 發布:2025-05-13 22:10:10 瀏覽:408
    洗眼睛解壓 發布:2025-05-13 21:58:28 瀏覽:272
    c存儲指針 發布:2025-05-13 21:49:04 瀏覽:921
    結繩編程軟體 發布:2025-05-13 21:49:03 瀏覽:850
    解壓體育館 發布:2025-05-13 21:27:48 瀏覽:263