編譯緩存工具
A. eclipse3.6中怎麼把gwt源文件編譯成緩存js
用GWT Compile。
在工具欄中一個有大寫G的紅色工具箱圖標,或者右鍵項目後選 google - GWT Compile。
B. 推薦 20 個堪稱神器的命令行工具
優質文章,第一時間送達!
1.ag:比 grep、ack 更快的遞歸搜索文件內容。
2.tig:字元模式下交互查看 git 項目,可以替代 git 命令。
3.mycli:mysql 客戶端,支持語法高亮和命令補全,效果類似 ipython,可以替代 mysql 命令。
4.jq: json 文件處理以及格式化顯示,支持高亮,可以替換 python -m json.tool。
5.shellcheck:shell 腳本靜態檢查工具,能夠識別語法錯誤以及不規范的寫法。
6.yapf:Google 開發的 python 代碼格式規范化工具,支持 pep8 以及 Google 代碼風格。
7.mosh:基於 UDP 的終端連接,可以替代 ssh,連接更穩定,即使 IP 變了,也能自動重連。
8.fzf:命令行下模糊搜索工具,能夠互動式智能搜索並選取文件或者內容,配合終端 ctrl-r 歷史 命令搜索簡直完美。
9.PathPicker(fpp):在命令行輸出中自動識別目錄和文件,支持互動式,配合 git 非常有用。
運行以下命令:
10.htop: 提供更美觀、更方便的進程監控工具,替代 top 命令。
11.axel:多線程下載工具,下載文件時可以替代 curl、wget。
12.sz/rz:互動式文件傳輸,在多重跳板機下傳輸文件非常好用,不用一級一級傳輸。
13.cloc:代碼統計工具,能夠統計代碼的空行數、注釋行、編程語言。
14.ccache:高速 C/C++編譯緩存工具,反復編譯內核非常有用。使用起來也非常方便:
改成:
15.tmux:終端復用工具,替代 screen、nohup。
16.neovim: 替代 vim。
17.script/scriptreplay: 終端會話錄制。
回放:
18.you-get: 非常強大的媒體下載工具,支持 youtube、google+、優酷、芒果 TV、騰訊視頻、秒拍等視頻下載。
還有 mac 專有的 pb/pbpaste:
把命令行輸出拷貝到系統粘貼板:
把系統粘貼板內容拷到終端:
mac 下的 say 命令支持多種語言(英語、普通話、粵語)文本朗讀,支持各種銷魂恐怖的語氣。跑這個命令感受下,小心被嚇著了:
19.thefuck:用途是每次命令行打錯了以後,打一句 fuck 就會自動更正命令。比如 apt-get 打成了 aptget。fuck 以後自動變成 apt-get。但還是沒加 sudo。再 fuck,成功!
又比如 git branch 打成了 git brnch。fuck!更正成 git branch。
又比如 python 打成了 puthon。fuck!一秒變 python。
而且關鍵是每次打命令和內心 os 完全一致,有種人機合一的快感。fuck!
20.tldr: 如果你經常不想詳讀 man 文檔,那麼你應該試試這個小工具。
使用 $ man tar 時
使用 $ tldr tar 時
C. Xcache和memcache選哪個好
memcache和 Xcache 是php的2個緩存工具。PHP5.5以來,自帶有 Zend Opcache ,不過默認沒啟用。
這些緩存器的原理:
引用
把PHP執行後的數據緩沖到內存中從而避免重復的編譯過程,能夠直接使用緩沖區已編譯的代碼從而提高速度,降低伺服器負載,它們的效率是顯而易見的,像drupal這種龐大的CMS,每次打開一個頁面要調用數十個PHP文件,執行數萬行代碼,效率可想而知
然而Opcache 只自動緩存代碼,它沒有開放一個自定義緩存的API,要用到用戶緩存的話還得用上Xcache或者memcache。
Xcache是中國人所做,看起來很牛叉,但是在實際應用中發現這個東西太不穩定了,光用它作代碼緩存(後台自動緩存PHP代碼),竟然有時候會使得整個PHP進程都當掉。然後也試了Xcache的用戶緩存,API文檔寫得真夠殘的,好在還能用,但萬沒有想到,在fastcgi模式下,緩存命中率低得可憐,用和沒用基本上差不多,明明緩存了,後一個請求過來一查卻說沒緩存,可能延時個幾秒後才得知這個已經緩存了,才能取出緩存內容。這玩意到底仔細測試沒有?我用的是3.1.0官方正式版Xcache在PHP 5.5 里作的測試,簡直就是個廢物!還記得以前在PHP5.2裡面也用它過,莫名其妙的請求失敗也時有出現。現在直接不敢再用……
相比這個XCache,memcache穩定得多。題外話:memcached和memcache又有點不同,memcached是memcache的守護進程,但是PHP中也有memcached的擴展。這兩個說實話是讓人頭暈不知道是什麼區別,其實我看來就是調用memcache的封裝模式不太一樣而已。具體哪些調用上的不同,參考 http://pecl.php.net/package/memcache 和http://pecl.php.net/package/memcached 。一看就知道memcached要多一些API函數調用,功能也更強大一些。而實際上基礎應用的話memcache已經足夠。
memcache的使用首先要有它的服務(也就是memcached進程)在跑,這個是一個小小的軟體,一般是用C++編譯,可以部署在與PHP同一台也可以不同,甚至可以分布式部署幾個memcached服務在不同的伺服器上。而PHP的memcached只是它的客戶端而已。memcached本身沒有PHP代碼緩存功能,現升到PHP5.5後直接交給自帶Opcache 了。一般用它作用戶緩存。經過實際開發,memcached穩定性是非常高的,只要有緩存,命中率幾乎在99%以上。PHP官方下提供了它的擴展可直接使用:http://pecl.php.net/package/memcache 連Windows版的DLL也直接在那裡了,不用自己再編譯。Windows下編譯這些東西真是麻煩得很啦~
綜上memcache更加穩定,推薦使用。Xcache真要用的話,還是老實在本地先測試一下再說。
此外,微軟Windows下PHP可以使用Wincache,這個的穩定性沒得說的,而且也不用守護進程。但是微軟沒能編譯適用於PHP 64位的DLL。要想通用和跨平台,memcache是首選!!
D. java web開發緩存方案,ehcache和redis哪個更好
Ehcache
在java項目廣泛的使用。它是一個開源的、設計於提高在數據從RDBMS中取出來的高花費、高延遲採取的一種緩存方案。正因為Ehcache具有健壯性(基於java開發)、被認證(具有apache 2.0 license)、充滿特色(稍後會詳細介紹),所以被用於大型復雜分布式web application的各個節點中。
1. 夠快
Ehcache的發行有一段時長了,經過幾年的努力和不計其數的性能測試,Ehcache終被設計於large, high concurrency systems.
2. 夠簡單
開發者提供的介面非常簡單明了,從Ehcache的搭建到運用運行僅僅需要的是你寶貴的幾分鍾。其實很多開發者都不知道自己用在用Ehcache,Ehcache被廣泛的運用於其他的開源項目
比如:hibernate
3.夠袖珍
關於這點的特性,官方給了一個很可愛的名字small foot print ,一般Ehcache的發布版本不會到2M,V 2.2.3 才 668KB。
4. 夠輕量
核心程序僅僅依賴slf4j這一個包,沒有之一!
5.好擴展
Ehcache提供了對大數據的內存和硬碟的存儲,最近版本允許多實例、保存對象高靈活性、提供LRU、LFU、FIFO淘汰演算法,基礎屬性支持熱配置、支持的插件多
6.監聽器
緩存管理器監聽器 (CacheManagerListener)和 緩存監聽器(CacheEvenListener),做一些統計或數據一致性廣播挺好用的
如何使用?
夠簡單就是Ehcache的一大特色,自然用起來just so easy!
redis
redis是在memcache之後編寫的,大家經常把這兩者做比較,如果說它是個key-value store 的話但是它具有豐富的數據類型,我想暫時把它叫做緩存數據流中心,就像現在物流中心那樣,order、package、store、classification、distribute、end。現在還很流行的LAMP PHP架構 不知道和 redis+mysql 或者 redis + mongodb的性能比較(聽群里的人說mongodb分片不穩定)。
先說說reidis的特性
1. 支持持久化
redis的本地持久化支持兩種方式:RDB和AOF。RDB 在redis.conf配置文件里配置持久化觸發器,AOF指的是redis沒增加一條記錄都會保存到持久化文件中(保存的是這條記錄的生成命令),如果不是用redis做DB用的話還會不要開AOF ,數據太龐大了,重啟恢復的時候是一個巨大的工程!
2.豐富的數據類型
redis 支持 String 、Lists、sets、sorted sets、hashes 多種數據類型,新浪微博會使用redis做nosql主要也是它具有這些類型,時間排序、職能排序、我的微博、發給我的這些功能List 和 sorted set 的強大操作功能息息相關
3.高性能
這點跟memcache很想像,內存操作的級別是毫秒級的比硬碟操作秒級操作自然高效不少,較少了磁頭尋道、數據讀取、頁面交換這些高開銷的操作!這也是NOSQL冒出來的原因吧,應該是高性能
是基於RDBMS的衍生產品,雖然RDBMS也具有緩存結構,但是始終在app層面不是我們想要的那麼操控的。
4.replication
redis提供主從復制方案,跟mysql一樣增量復制而且復制的實現都很相似,這個復制跟AOF有點類似復制的是新增記錄命令,主庫新增記錄將新增腳本發送給從庫,從庫根據腳本生成記錄,這個過程非常快,就看網路了,一般主從都是在同一個區域網,所以可以說redis的主從近似及時同步,同事它還支持一主多從,動態添加從庫,從庫數量沒有限制。 主從庫搭建,我覺得還是採用網狀模式,如果使用鏈式(master-slave-slave-slave-slave·····)如果第一個slave出現宕機重啟,首先從master 接收 數據恢復腳本,這個是阻塞的,如果主庫數據幾TB的情況恢復過程得花上一段時間,在這個過程中其他的slave就無法和主庫同步了。
5.更新快
這點好像從我接觸到redis到目前為止 已經發了大版本就4個,小版本沒算過。redis作者是個非常積極的人,無論是郵件提問還是論壇發帖,他都能及時耐心的為你解答,維護度很高。有人維護的話,讓我們用的也省心和放心。目前作者對redis 的主導開發方向是redis的集群方向。
所以如果希望簡單就用ehcache,如果開發任務比較復雜,希望得到比較多的支持什麼的就redis
E. 「編譯」與「編譯器」是什麼意思
編譯是動詞
編譯器是名詞
編譯(compilation , compile)
1、利用編譯程序從源語言編寫的源程序產生目標程序的過程。
2、用編譯程序產生目標程序的動作。
編譯就是把高級語言變成計算機可以識別的2進制語言,計算機只認識1和0,編譯程序把人們熟悉的語言換成2進制的。
編譯程序把一個源程序翻譯成目標程序的工作過程分為五個階段:詞法分析;語法分析;中間代碼生成;代碼優化;目標代碼生成。主要是進行詞法分析和語法分析,又稱為源程序分析,分析過程中發現有語法錯誤,給出提示信息。
(1) 詞法分析
詞法分析的任務是對由字元組成的單詞進行處理,從左至右逐個字元地對源程序進行掃描,產生一個個的單詞符號,把作為字元串的源程序改造成為單詞符號串的中間程序。執行詞法分析的程序稱為詞法分析程序或掃描器。
源程序中的單詞符號經掃描器分析,一般產生二元式:單詞種別;單詞自身的值。單詞種別通常用整數編碼,如果一個種別只含一個單詞符號,那麼對這個單詞符號,種別編碼就完全代表它自身的值了。若一個種別含有許多個單詞符號,那麼,對於它的每個單詞符號,除了給出種別編碼以外,還應給出自身的值。
詞法分析器一般來說有兩種方法構造:手工構造和自動生成。手工構造可使用狀態圖進行工作,自動生成使用確定的有限自動機來實現。
(2) 語法分析
編譯程序的語法分析器以單詞符號作為輸入,分析單詞符號串是否形成符合語法規則的語法單位,如表達式、賦值、循環等,最後看是否構成一個符合要求的程序,按該語言使用的語法規則分析檢查每條語句是否有正確的邏輯結構,程序是最終的一個語法單位。編譯程序的語法規則可用上下文無關文法來刻畫。
語法分析的方法分為兩種:自上而下分析法和自下而上分析法。自上而下就是從文法的開始符號出發,向下推導,推出句子。而自下而上分析法採用的是移進歸約法,基本思想是:用一個寄存符號的先進後出棧,把輸入符號一個一個地移進棧里,當棧頂形成某個產生式的一個候選式時,即把棧頂的這一部分歸約成該產生式的左鄰符號。
(3) 中間代碼生成
中間代碼是源程序的一種內部表示,或稱中間語言。中間代碼的作用是可使編譯程序的結構在邏輯上更為簡單明確,特別是可使目標代碼的優化比較容易實現。中間代碼即為中間語言程序,中間語言的復雜性介於源程序語言和機器語言之間。中間語言有多種形式,常見的有逆波蘭記號、四元式、三元式和樹。
(4) 代碼優化
代碼優化是指對程序進行多種等價變換,使得從變換後的程序出發,能生成更有效的目標代碼。所謂等價,是指不改變程序的運行結果。所謂有效,主要指目標代碼運行時間較短,以及佔用的存儲空間較小。這種變換稱為優化。
有兩類優化:一類是對語法分析後的中間代碼進行優化,它不依賴於具體的計算機;另一類是在生成目標代碼時進行的,它在很大程度上依賴於具體的計算機。對於前一類優化,根據它所涉及的程序范圍可分為局部優化、循環優化和全局優化三個不同的級別。
(5) 目標代碼生成
目標代碼生成是編譯的最後一個階段。目標代碼生成器把語法分析後或優化後的中間代碼變換成目標代碼。目標代碼有三種形式:
① 可以立即執行的機器語言代碼,所有地址都重定位;
② 待裝配的機器語言模塊,當需要執行時,由連接裝入程序把它們和某些運行程序連接起來,轉換成能執行的機器語言代碼;
③ 匯編語言代碼,須經過匯編程序匯編後,成為可執行的機器語言代碼。
目標代碼生成階段應考慮直接影響到目標代碼速度的三個問題:一是如何生成較短的目標代碼;二是如何充分利用計算機中的寄存器,減少目標代碼訪問存儲單元的次數;三是如何充分利用計算機指令系統的特點,以提高目標代碼的質量。
編譯器,是將便於人編寫,閱讀,維護的高級計算機語言翻譯為計算機能解讀、運行的低階機器語言的程序。編譯器將原始程序(Source program)作為輸入,翻譯產生使用目標語言(Target language)的等價程序。源代碼一般為高階語言 (High-level language), 如 Pascal、C++、Java 等,而目標語言則是匯編語言或目標機器的目標代碼(Object code),有時也稱作機器代碼(Machine code)。
一個現代編譯器的主要工作流程如下:
源代碼 (source code) → 預處理器 (preprocessor) → 編譯器 (compiler) → 匯編程序 (assembler) → 目標代碼 (object code) → 連接器 (Linker) → 可執行程序 (executables)
工作原理
[編輯本段]
編譯是從源代碼(通常為高階語言)到能直接被計算機或虛擬機執行的目標代碼(通常為低階語言或機器語言)的翻譯過程。然而,也存在從低階語言到高階語言的編譯器,這類編譯器中用來從由高階語言生成的低階語言代碼重新生成高階語言代碼的又被叫做反編譯器。也有從一種高階語言生成另一種高階語言的編譯器,或者生成一種需要進一步處理的的中間代碼的編譯器(又叫級聯)。
典型的編譯器輸出是由包含入口點的名字和地址, 以及外部調用(到不在這個目標文件中的函數調用)的機器代碼所組成的目標文件。一組目標文件,不必是同一編譯器產生,但使用的編譯器必需採用同樣的輸出格式,可以鏈接在一起並生成可以由用戶直接執行的可執行程序。
編譯器種類
[編輯本段]
編譯器可以生成用來在與編譯器本身所在的計算機和操作系統(平台)相同的環境下運行的目標代碼,這種編譯器又叫做「本地」編譯器。另外,編譯器也可以生成用來在其它平台上運行的目標代碼,這種編譯器又叫做交叉編譯器。交叉編譯器在生成新的硬體平台時非常有用。「源碼到源碼編譯器」是指用一種高階語言作為輸入,輸出也是高階語言的編譯器。例如: 自動並行化編譯器經常採用一種高階語言作為輸入,轉換其中的代碼,並用並行代碼注釋對它進行注釋(如OpenMP)或者用語言構造進行注釋(如FORTRAN的DOALL指令)。
預處理器(preprocessor)
作用是通過代入預定義等程序段將源程序補充完整。
編譯器前端(frontend)
前端主要負責解析(parse)輸入的源代碼,由語法分析器和語意分析器協同工作。語法分析器負責把源代碼中的『單詞』(Token)找出來,語意分析器把這些分散的單詞按預先定義好的語法組裝成有意義的表達式,語句 ,函數等等。 例如「a = b + c;」前端語法分析器看到的是「a, =, b , +, c;」,語意分析器按定義的語法,先把他們組裝成表達式「b + c」,再組裝成「a = b + c」的語句。 前端還負責語義(semantic checking)的檢查,例如檢測參與運算的變數是否是同一類型的,簡單的錯誤處理。最終的結果常常是一個抽象的語法樹(abstract syntax tree,或 AST),這樣後端可以在此基礎上進一步優化,處理。
編譯器後端(backend)
編譯器後端主要負責分析,優化中間代碼(Intermediate representation)以及生成機器代碼(Code Generation)。
一般說來所有的編譯器分析,優化,變型都可以分成兩大類: 函數內(intraproceral)還是函數之間(interproceral)進行。很明顯,函數間的分析,優化更准確,但需要更長的時間來完成。
編譯器分析(compiler analysis)的對象是前端生成並傳遞過來的中間代碼,現代的優化型編譯器(optimizing compiler)常常用好幾種層次的中間代碼來表示程序,高層的中間代碼(high level IR)接近輸入的源代碼的格式,與輸入語言相關(language dependent),包含更多的全局性的信息,和源代碼的結構;中層的中間代碼(middle level IR)與輸入語言無關,低層的中間代碼(Low level IR)與機器語言類似。 不同的分析,優化發生在最適合的那一層中間代碼上。
常見的編譯分析有函數調用樹(call tree),控制流程圖(Control flow graph),以及在此基礎上的 變數定義-使用,使用-定義鏈(define-use/use-define or u-d/d-u chain),變數別名分析(alias analysis),指針分析(pointer analysis),數據依賴分析(data dependence analysis)等等。
上述的程序分析結果是編譯器優化(compiler optimization)和程序變形(compiler transformation)的前提條件。常見的優化和變新有:函數內嵌(inlining),無用代碼刪除(Dead code elimination),標准化循環結構(loop normalization),循環體展開(loop unrolling),循環體合並,分裂(loop fusion,loop fission),數組填充(array padding),等等。 優化和變形的目標是減少代碼的長度,提高內存(memory),緩存(cache)的使用率,減少讀寫磁碟,訪問網路數據的頻率。更高級的優化甚至可以把序列化的代碼(serial code)變成並行運算,多線程的代碼(parallelized,multi-threaded code)。
機器代碼的生成是優化變型後的中間代碼轉換成機器指令的過程。現代編譯器主要採用生成匯編代碼(assembly code)的策略,而不直接生成二進制的目標代碼(binary object code)。即使在代碼生成階段,高級編譯器仍然要做很多分析,優化,變形的工作。例如如何分配寄存器(register allocatioin),如何選擇合適的機器指令(instruction selection),如何合並幾句代碼成一句等等。
編譯語言與直譯語言對比
[編輯本段]
許多人將高階程序語言分為兩類: 編譯型語言 和 直譯型語言 。然而,實際上,這些語言中的大多數既可用編譯型實現也可用直譯型實現,分類實際上反映的是那種語言常見的實現方式。(但是,某些直譯型語言,很難用編譯型實現。比如那些允許 在線代碼更改 的直譯型語言。)
歷史
[編輯本段]
上世紀50年代,IBM的John Backus帶領一個研究小組對FORTRAN語言及其編譯器進行開發。但由於當時人們對編譯理論了解不多,開發工作變得既復雜又艱苦。與此同時,Noam Chomsky開始了他對自然語言結構的研究。他的發現最終使得編譯器的結構異常簡單,甚至還帶有了一些自動化。Chomsky的研究導致了根據語言文法的難易程度以及識別它們所需要的演算法來對語言分類。正如現在所稱的Chomsky架構(Chomsky Hierarchy),它包括了文法的四個層次:0型文法、1型文法、2型文法和3型文法,且其中的每一個都是其前者的特殊情況。2型文法(或上下文無關文法)被證明是程序設計語言中最有用的,而且今天它已代表著程序設計語言結構的標准方式。分析問題(parsing problem,用於上下文無關文法識別的有效演算法)的研究是在60年代和70年代,它相當完善的解決了這個問題。現在它已是編譯原理中的一個標准部分。
有限狀態自動機(Finite Automaton)和正則表達式(Regular Expression)同上下文無關文法緊密相關,它們與Chomsky的3型文法相對應。對它們的研究與Chomsky的研究幾乎同時開始,並且引出了表示程序設計語言的單詞的符號方式。
人們接著又深化了生成有效目標代碼的方法,這就是最初的編譯器,它們被一直使用至今。人們通常將其稱為優化技術(Optimization Technique),但因其從未真正地得到過被優化了的目標代碼而僅僅改進了它的有效性,因此實際上應稱作代碼改進技術(Code Improvement Technique)。
當分析問題變得好懂起來時,人們就在開發程序上花費了很大的功夫來研究這一部分的編譯器自動構造。這些程序最初被稱為編譯器的編譯器(Compiler-compiler),但更確切地應稱為分析程序生成器(Parser Generator),這是因為它們僅僅能夠自動處理編譯的一部分。這些程序中最著名的是Yacc(Yet Another Compiler-compiler),它是由Steve Johnson在1975年為Unix系統編寫的。類似的,有限狀態自動機的研究也發展了一種稱為掃描程序生成器(Scanner Generator)的工具,Lex(與Yacc同時,由Mike Lesk為Unix系統開發)是這其中的佼佼者。
在70年代後期和80年代早期,大量的項目都貫注於編譯器其它部分的生成自動化,這其中就包括了代碼生成。這些嘗試並未取得多少成功,這大概是因為操作太復雜而人們又對其不甚了解。
編譯器設計最近的發展包括:首先,編譯器包括了更加復雜演算法的應用程序它用於推斷或簡化程序中的信息;這又與更為復雜的程序設計語言的發展結合在一起。其中典型的有用於函數語言編譯的Hindley-Milner類型檢查的統一演算法。其次,編譯器已越來越成為基於窗口的交互開發環境(Interactive Development Environment,IDE)的一部分,它包括了編輯器、連接程序、調試程序以及項目管理程序。這樣的IDE標准並沒有多少,但是對標準的窗口環境進行開發已成為方向。另一方面,盡管近年來在編譯原理領域進行了大量的研究,但是基本的編譯器設計原理在近20年中都沒有多大的改變,它現在正迅速地成為計算機科學課程中的中心環節。
在九十年代,作為GNU項目或其它開放源代碼項目標一部分,許多免費編譯器和編譯器開發工具被開發出來。這些工具可用來編譯所有的計算機程序語言。它們中的一些項目被認為是高質量的,而且對現代編譯理論感興趣的人可以很容易的得到它們的免費源代碼。
大約在1999年,SGI公布了他們的一個工業化的並行化優化編譯器Pro64的源代碼,後被全世界多個編譯器研究小組用來做研究平台,並命名為Open64。Open64的設計結構好,分析優化全面,是編譯器高級研究的理想平台。
F. 怎樣清理c盤的無用文件
已滿的c盤該怎麼清理無用的文件?電腦經常卡,有一個很大的原因,是因為c盤中的文件太多了,我們可以刪除一些無用的文件來解決電腦卡頓額情況,下面我們就來看看詳細的教程,需要的朋友可以參考下
電腦卡頓,c盤太滿,我們可以清理無用的文件,該怎麼清理c盤呢?下面我們就來看看詳細的教程。
一、占空間比較大的幾個文件夾
假設電腦(C盤總共80G)為例:
12345Program Files 佔用了 1.53GProgram Files(X86) 佔用了 4.68GProgramData 佔用了 2.8GWindows 佔用了 31.8G用戶User 佔用了 36.9G
我們可以看到User用戶這個目錄的緩存和配置文件將近佔用了C盤的一半,Windows是系統目錄我們不能動。所以我們現在著手去User目錄刪除我們不需要的文件即可。
二、User文件夾主要佔空間比較大的文件詳情清單
123C:UsersDefault 佔用了21.6MC:UsersPublic 佔用了6.73MC:UsersAdministrator 剩下的內存都是這個文件夾佔用的
我們可以看到Administrator這個文件夾幾乎占滿了User目錄的內存,其它兩個目錄可以忽略不計了,我們下一步重點清理這個Administrator文件夾。
三、查看Administrator文件夾哪些是占內存最多的
Administrator文件夾裡面有很多配置和緩存文件,我們逐個文件去查看內存佔用情況,發現有幾個文件夾佔用內存是最大的,我在這里列舉出來給大家看看:
12345.android 佔用了10G.AndroidStudio3.1 佔用了973M.gradle 佔用了3G還有一個隱藏文件 AppData 佔用了 11.6G還有一個文件`java_error_in_studio.hprof` 佔用了1.38G (如下圖所示)
(二)清理.AndroidStudio3.1文件夾
這個文件夾下面有config和system兩個文件夾。
(1)config:
AndroidStudio的配置文件,這裡面有文件模板,插件,顏色設置,主題設置等配置。如果把config文件復制到其他電腦的C:UsersAdministrator.AndroidStudioXXX目錄下(XXX指的是AndroidStudio對應版本), 打開AndroidStudio導入這個配置即可生效。
(2)system:
這裡面有幾個文件夾佔用內存比較大的,分別是:caches和index,由於這是運行AndroidStudio自動生成的文件,僅作為了解即可,如果刪除的話,可能運行AndroidStudio會出一些異常,建議保留。
如果你的電腦還安裝了其它的IDEA,例如AndroidStudio2.3?或者Intellij IDEA?,那麼你在Administrator文件夾就會看到.AndroidStudio2.3 .Intellij IDEA文件。這幾個也是佔用內存比較大的文件,如果暫時用不到某一個IDEA ,建議把對應的文件夾刪除(比如AndroidStudio2.3很少使用,可以把.AndroidStudio2.3文件刪除)。
(三)清理.gradle文件夾
這個文件夾有幾個需要注意的文件夾,它們佔用內存比較大,可以適當的清理。
(1)caches:
我們在項目中添加的依賴庫,都在這個目錄下緩存著,以及AndroidStudio的gradle和maven相關插件都在這里。甚至我們使用gradle構建其他類型項目(比如構建rn,構建spring項目等。)也會下載需要用到的插件資源在這個目錄下。建議把不需要用到的一些開源庫刪除,請逐個打開文件夾確認之後再刪除。
(2)daemon:
這裡面保存的是log日誌文件,,不同版本的gradle,只要編譯之後都會保留有一些日誌信息。我的電腦裡面這個文件夾佔用了642M,我們可以把daemon裡面的文件全部都刪除。
(3)wrapper/dists:
這個文件夾佔用了838M。這里存放的是gradle文件,也就是是或我們下載的gradle文件,或者我們去官網下載的gradle可以放到這個目錄下保存。我這里有gradle-4.4-all、gradle-4.4-bin、gradle-4.6-all、gradle-4.6-bin這4個版本的gradle,如果你的電腦裡面還有其他版本,建議刪除,只保留你想要的版本即可。但是注意一點:請在刪除相關gradle之後,打開AndroidStudio之後要設置成離線模式,設置一下本地gradle路徑,這樣以後的項目就會來這個路徑找gradle,而不會去下載新的gradle版本了。
(四)清理AppData文件夾
這個路徑一般是電腦裡面的軟體的緩存和臨時文件配置之類的東西。重點關注兩個文件夾Local和Roaming文件夾。
(1)Local: 佔了2.85G
1.Google:佔用了450M,這個目錄安裝的是谷歌瀏覽器,暫且不動它了。
2.Microsoft:佔用了184M,這個微軟系統有關的東西,暫且不動它了。
3.Yarn:佔用了669M,這個目錄是yarn構建時的緩存文件,可以暫時保留,免得以後又要去下載。
4.微信Web開發者工具:佔用了310M,這是開發小程序的用戶緩存文件,建議保留。
(2)Roaming: 佔了8.47G 這裡面主要是電腦裡面你下載的軟體的一些配置和緩存,可以根據需要進行刪除。這里我就不逐個演示了。
(五)直接刪除?java_error_in_studio.hprof?文件
原文地址:https://blog.csdn.net/generallizhong/article/details/100071622
G. PHP緩存技術的PHP編譯緩存
目前最常見的PHP編譯緩存工具有:APC,Accelerator,xcache(國產)等。
PHP是一種解釋型語言,在PHP語言執行代碼的時候,需要下面兩步:
1、編譯過程。PHP讀取文件,並編譯該文件,然後生成能夠在Zend Engine虛擬機上執行的中間碼。
2、執行過程。PHP直接執行中間碼。
以下兩種情況,會導致PHP運行程序代碼效率低下:
1、即使PHP代碼文件沒有發生改變,也會被PHP重新編譯。
2、如有引用文件,PHP也要花費時間重新編譯這些被引用的文件。
因此,需要PHP編譯緩存工具對PHP程序的編譯結果做緩存處理。這樣,PHP程序只要編譯一次,就不要重新再做無意義的編譯了。
H. jd-gui反編譯工具緩存在哪兒
表示沒出現過,大多就是代碼錯亂而已,
I. xcode編譯緩存與本地時間有關嗎
有關系。
我是安裝一款軟體,然後通過改個系統時間來升級為免費版本。安裝完成後忘記把系統時間改回來了,然後去編譯xcode(6.4)。真機測試的時候提示開發者證書過期了。what!剛剛還好好的,為什麼開發者證書就過期了呢?
鑰匙串訪問
通過查看鑰匙串裡面的證書發現真的都過期了,證書全部顯示無效。好傢伙,我估摸著怎麼突然證書都失效了呢,然後看到了證書的日期
過期是2016年
原來是系統時間被改成2020年了,怪不得證書過期了,然後我刪掉了原來的證書,改回了系統的時間,重新安裝了新的證書,ok 可以真機測試了。真的是給自己跪了。(PS:個人認為,時間改回來就好,證書不需要刪也是可以用的)