AndyStack 2019-03-01T11:38:02+00:00 cgao886@163.com Apache ZooKeeper Java Client API 简介 2015-08-03T00:00:00+00:00 andygc http://angelof7.github.io/zookeeper-java-client-api Apache ZooKeeper:

ZooKeeper是一个分布式的,开放源码的分布式应用程序协调服务,是Google的Chubby一个开源的实现,是Hadoop和Hbase的重要组件。它是一个为分布式应用提供一致性服务的软件,提供的功能包括:配置维护、名字服务、分布式同步、组服务等。 ZooKeeper的目标就是封装好复杂易出错的关键服务,将简单易用的接口和性能高效、功能稳定的系统提供给用户。 ZooKeeper包含一个简单的原语集, 提供Java和C的接口。

ZooKeeper 的安装:


ZooKeeper下载安装

Java Client 的使用:


Watcher 在 ZooKeeper 是一个核心功能,Watcher 可以监控目录节点的数据变化以及子目录的变化,一旦这些状态发生变化,服务器就会通知所有设置在这个目录节点上的 Watcher,从而每个客户端都很快知道它所关注的目录节点的状态发生变化,而做出相应的反应. 可以设置观察的操作:exists,getChildren,getData

可以触发观察的操作:create,delete,setData

znode以某种方式发生变化时,“观察”(watch)机制可以让客户端得到通知.可以针对ZooKeeper服务的“操作”来设置观察,该服务的其他 操作可以触发观察.

比如,客户端可以对某个客户端调用exists操作,同时在它上面设置一个观察,如果此时这个znode不存在,则exists返回 false,如果一段时间之后,这个znode被其他客户端创建,则这个观察会被触发,之前的那个客户端就会得到通知.

说明: zookeeper客户端对server的操作都是不可回退的。 意 思是说,zk的客户端每次和server进行通信的时候,会记住server上最新的zxid。如果某个时刻,客户端和server断开了连接,那么等到 下次重新连接到集群中的机器上时,会检查当前连接上的那个server是否和client有相同的zxid,或者已经是更新的zxid了。一旦客户端发现 server的zxid比自己小,那么客户端会断开和这个server的连接,并且重新连接集群中的其它server.

  1. 连接ZooKeeper服务器
/***
*** [关于connectString服务器地址配置]
*** 格式: 192.168.1.1:2181,192.168.1.2:2181,192.168.1.3:2181
*** 这个地址配置有多个ip:port之间逗号分隔,底层操作:
*** ConnectStringParser connectStringParser =  new ConnectStringParser(“192.168.1.1:2181,192.168.1.2:2181,192.168.1.3:2181”);
*** 这个类主要就是解析传入地址列表字符串,将其它保存在一个ArrayList中
*** ArrayList<InetSocketAddress> serverAddresses = new ArrayList<InetSocketAddress>();
*** 接下去,这个地址列表会被进一步封装成StaticHostProvider对象,并且在运行过程中,一直是这个对象来维护整个地址列表。
*** ZK客户端将所有Server保存在一个List中,然后随机打乱(这个随机过程是一次性的),并且形成一个环,具体使用的时候,从0号位开始一个一个使用。
*** 因此,Server地址能够重复配置,这样能够弥补客户端无法设置Server权重的缺陷,但是也会加大风险。
*** 
*** [客户端和服务端会话说明]
*** ZooKeeper中,客户端和服务端建立连接后,会话随之建立,生成一个全局唯一的会话ID(Session ID)。
*** 服务器和客户端之间维持的是一个长连接,在SESSION_TIMEOUT时间内,服务器会确定客户端是否正常连接(客户端会定时向服务器发送heart_beat,服务器重置下次SESSION_TIMEOUT时间)。
*** 因此,在正常情况下,Session一直有效,并且ZK集群所有机器上都保存这个Session信息。
*** 在出现网络或其它问题情况下(例如客户端所连接的那台ZK机器挂了,或是其它原因的网络闪断),客户端与当前连接的那台服务器之间连接断了,这个时候客户端会主动在地址列表(实例化ZK对象的时候传入构造方法的那个参数connectString)中选择新的地址进行连接。
***
*** [会话时间]
*** 客户端并不是可以随意设置这个会话超时时间,在ZK服务器端对会话超时时间是有限制的,主要是minSessionTimeout和maxSessionTimeout这两个参数设置的。
*** 如果客户端设置的超时时间不在这个范围,那么会被强制设置为最大或最小时间。 默认的Session超时时间是在2 * tickTime ~ 20 * tickTime
*** @param connectString  Zookeeper服务地址
*** @param sessionTimeout Zookeeper连接超时时间
***/

public void connectionZookeeper(String connectString, int sessionTimeout){
    this.releaseConnection();
    try {
       // ZK客户端允许我们将ZK服务器的所有地址都配置在这里
       zk = new ZooKeeper(connectString, sessionTimeout, this );
       // 使用CountDownLatch.await()的线程(当前线程)阻塞直到所有其它拥有CountDownLatch的线程执行完毕(countDown()结果为0)
       connectedSemaphore.await();          
    } catch ( InterruptedException e  ) {
       LOG.error("连接创建失败,发生 InterruptedException , e " + e.getMessage(), e);         
    } catch ( IOException e  ) {
       LOG.error( "连接创建失败,发生 IOException , e " + e.getMessage(), e  );          
    }
}
  1. 创建节点
/*
* 创建zNode节点, String create(path<节点路径>, data[]<节点内容>, List(ACL访问控制列表), CreateMode<zNode创建类型>)
*    节点创建类型(CreateMode)
*    1、PERSISTENT:持久化节点
*    2、PERSISTENT_SEQUENTIAL:顺序自动编号持久化节点,这种节点会根据当前已存在的节点数自动加 1
*    3、EPHEMERAL:临时节点客户端,session超时这类节点就会被自动删除
*    4、EPHEMERAL_SEQUENTIAL:临时自动编号节点
* @param path zNode节点路径
* @param data zNode数据内容
* @return 创建成功返回true, 反之返回false.
*/

public boolean createPath( String path, String data  ) {
    try {
                    String zkPath =  this.zk.create(path, data.getBytes(), ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);
                    LOG.info( "节点创建成功, Path: " + zkPath + ", content: " + data  );
                    return true;
                
    } catch ( KeeperException e  ) {
                    LOG.error( "节点创建失败, 发生KeeperException! path: " + path + ", data:" + data
                                                 + ", errMsg:" + e.getMessage(), e );
                
    } catch ( InterruptedException e  ) {
                    LOG.error( "节点创建失败, 发生 InterruptedException! path: " + path + ", data:" + data
                                                 + ", errMsg:" + e.getMessage(), e );
                
    }
            return false;
        
}
  1. 删除节点
/**
* <p>删除一个zMode节点, void delete(path<节点路径>, stat<数据版本号>)</p><br/>
* <pre>
*     说明
*     1、版本号不一致,无法进行数据删除操作.
*     2、如果版本号与znode的版本号不一致,将无法删除,是一种乐观加锁机制;如果将版本号设置为-1,不会去检测版本,直接删除.
* </pre>
* @param path zNode节点路径
* @return 删除成功返回true,反之返回false.
*/

public boolean deletePath( String path  ){
    try {
                    this.zk.delete(path,-1);
                    LOG.info( "节点删除成功, Path: " + path );
                    return true;
                
    } catch ( KeeperException e  ) {
                    LOG.error( "节点删除失败, 发生KeeperException! path: " + path
                                                 + ", errMsg:" + e.getMessage(), e );
                
    } catch ( InterruptedException e  ) {
                    LOG.error( "节点删除失败, 发生 InterruptedException! path: " + path
                                                 + ", errMsg:" + e.getMessage(), e );
                
    }
            return false;
        
}
  1. 节点赋值/更新节点
]]>
Apache Maven 使用指南 2015-07-27T00:00:00+00:00 andygc http://angelof7.github.io/maven-practice Apache Maven:

Maven 是一个项目管理和构建自动化工具。但是对于我们程序员来说,我们最关心的是它的项目构建功能。所以这里我们介绍的就是怎样用 maven 来满足我们项目的日常需要。 Maven 使用惯例优于配置的原则 。它要求在没有定制之前,所有的项目都有如下的结构:

目录 目的
${basedir} 存放 pom.xml和所有的子目录
${basedir}/src/main/java 项目的 java源代码
${basedir}/src/main/resources 项目的资源,比如说 property文件
${basedir}/src/test/java 项目的测试类,比如说 JUnit代码
${basedir}/src/test/resources 测试使用的资源

Maven 的安装:

maven下载安装
$ mvn -v

Maven 的使用:

  1. archetype
$ mvn archetype:generate 
-DgroupId=com.mycompany.helloworld 
-DartifactId=helloworld 
-Dpackage=com.mycompany.helloworld 
-Dversion=1.0-SNAPSHOT
  1. 构建
$ mvn clean compile   
$ mvn clean test   
$ mvn clean package  
$ mvn clean install
  1. POM
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
     xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
     <modelVersion>4.0.0</modelVersion> 

     <groupId>com.mycompany.helloworld</groupId> 
     <artifactId>helloworld</artifactId> 
     <version>1.0-SNAPSHOT</version> 
     <packaging>jar</packaging> 

     <name>helloworld</name> 
     <url>http://maven.apache.org</url> 

     <properties> 
       <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding> 
     </properties> 

     <dependencies>
       <dependency> 
         <groupId>junit</groupId> 
         <artifactId>junit</artifactId> 
         <version>3.8.1</version> 
         <scope>test</scope> 
       </dependency> 
     </dependencies> 
    </project>

在 POM 中,groupId, artifactId, packaging, version 叫作 maven 坐标,它能唯一的确定一个项目。有了 maven 坐标,我们就可以用它来指定我们的项目所依赖的其他项目,插件,或者父项目。一般 maven 坐标写成如下的格式:
groupId:artifactId:packaging:version
像我们的例子就会写成:
com.mycompany.helloworld: helloworld: jar: 1.0-SNAPSHOT

我们的 helloworld 示例很简单,但是大项目一般会分成几个子项目。在这种情况下,每个子项目就会有自己的 POM 文件,然后它们会有一个共同的父项目。这样只要构建父项目就能够构建所有的子项目了。子项目的 POM 会继承父项目的 POM。

  1. scope
    • compile (默认)
    • test
    • provided (servlet-api)
    • runtime (JDBC Driver)
    • system
    • import
  2. 聚合和继承

  3. 反应堆

  4. 常用命令
]]>
监控远程服务器JVM 2015-07-20T00:00:00+00:00 andygc http://angelof7.github.io/jvm-monitor-remote 远程服务器配置:

在tomcat中的bin/catalina.sh中添加:

JAVA_OPTS="$JAVA_OPTS  
 -Djava.rmi.server.hostname=nts3.photo.163.org  
 -Dcom.sun.management.jmxremote.port=8950  
 -Dcom.sun.management.jmxremote.authenticate=false  
 -Dcom.sun.management.jmxremote.ssl=false"  

JConsole


jconsole.png

VisualVM


jvisualvm.png

参考

Monitoring and Management Using JMX

]]>
git协同工作流程 2015-07-15T00:00:00+00:00 andygc http://angelof7.github.io/work-with-git-branch 本篇博客记录使用git协作的一般过程

git工作流程


  1. clone远程仓库:
    ` $ git clone … `
  2. 去自己的分支工作:
    ` $ git checkout work `
  3. 工作:
    ` working …. `
  4. 提交工作分支的修改:
    ` $ git add . ` ` $ git commit -a `
  5. 回到主分支:
    ` $ git checkout master `
  6. 获取最新的修改:
    ` $ git pull origin master `
  7. 回到工作分支:
    ` $ git checkout work `
  8. 合并主分支,并修改冲突:
    ` $ git rebase master `
  9. 回到主分支:
    ` $ git checkout master `
  10. 合并工作分支的修改,此时不会发生冲突了:
    ` $ git merge work `
  11. 提交到远程:
    ` $ git push origin master `
]]>
LinkedHashMap源码分析与LRU实现 2015-07-13T00:00:00+00:00 andygc http://angelof7.github.io/implementation-of-LinkedHashMap-and-LRU-implementation LinkedHashMap可认为是哈希表和链接列表综合实现,并允许使用null值和null键。LinkedHashMap实现与HashMap的不同之处在于,LinkedHashMap维护着一个运行于所有条目的双重链接列表。此链接列表定义了迭代顺序,该迭代顺序可以是插入顺序或者是访问顺序。 LinkedHashMap的实现不是同步的。如果多个线程同时访问LinkedHashMap,而其中至少一个线程从结构上修改了该映射,则它必须 保持外部同步。

1.LinkedHashMap的存储结构

LinkedHashMap01 LinkedHashMap中加入了一个head头结点,将所有插入到该LinkedHashMap中的Entry按照插入的先后顺序(accessOrder标志位默认为false)依次加入到以head为头结点的双向循环链表的尾部。

LinkedHashMap实际上就是HashMap和LinkedList两个集合类的存储结构的结合。在LinkedHashMapMap中,所有put进来的Entry都保存在 如图所示的哈希表中,但它又额外定义了一个以head为头结点的空的双向循环链表,每次put进来Entry,除了将其保存到对哈希表中对应的位置上外,还要将其插入到双向循环链表的尾部。

下面我们来分析LinkedHashMap的源代码。

2.LinkedHashMap成员变量

LinkedHashMap采用的hash算法和HashMap相同,但它重新定义了数组中保存的元素Entry,该Entry除了保存当前对象的引用外,还保 存了其上一个元素before和下一个元素after的引用,从而在哈希表的基础上又构成了双向链接列表。

//双向循环链表的头结点,整个LinkedHashMap中只有一个header,
//(此链表不同于HashMap里面的那个next链表)
//它将哈希表中所有的Entry贯穿起来,header中不保存key-value对,只保存前后节点的引用
   private transient Entry<K,V> header;

//双向链表中元素排序规则的标志位。
//accessOrder为false,表示按插入顺序排序
//accessOrder为true,表示按访问顺序排序
    private final boolean accessOrder;


 /** 
 * LinkedHashMap的Entry元素。 
 * 继承HashMap的Entry元素,又保存了其上一个元素before和下一个元素after的引用。 
 */  
private static class Entry<K,V> extends HashMap.Entry<K,V> {  
    Entry<K,V> before, after;  
    ……  //Entry类涉及到的方法,下面会继续分析
}  

3.构造函数

LinkedList一共提供了五个构造方法。

// 构造方法1,构造一个指定初始容量和加载因子的、按照插入顺序的LinkedList
//加载因子取默认的0.75f  

public LinkedHashMap(int initialCapacity, float loadFactor) {
    super(initialCapacity, loadFactor);
    accessOrder = false;
}

// 构造方法2,构造一个指定初始容量的LinkedHashMap,取得键值对的顺序是插入顺序
//加载因子取默认的0.75f  

public LinkedHashMap(int initialCapacity) {
    super(initialCapacity);
    accessOrder = false;
}

// 构造方法3,用默认的初始化容量和加载因子创建一个LinkedHashMap,取得键值对的顺序是插入顺序
//加载因子取默认的0.75f  

public LinkedHashMap() {
    super();
    accessOrder = false;
}

// 构造方法4,通过传入的map创建一个LinkedHashMap,容量为默认容量(16)和
//(map.zise()/DEFAULT_LOAD_FACTORY)+1的较大者,加载因子为默认值0.75

public LinkedHashMap(Map<? extends K, ? extends V> m) {
    super(m);
    accessOrder = false;
}

// 构造方法5,根据指定容量、加载因子和指定链表中的元素排序的规则  创建一个LinkedHashMap
public LinkedHashMap(int initialCapacity,
             float loadFactor,
                         boolean accessOrder) {
    super(initialCapacity, loadFactor);
    this.accessOrder = accessOrder;
}

我们已经知道LinkedHashMap的Entry元素继承HashMap的Entry,提供了双向链表的功能。在HashMap的构造器中,最后会调用init()方法,进行相关的初始化,这个方法在HashMap的实现中是空方法(感叹模板模式的精妙!),只是提供给子类实现相关的初始化调用。LinkedHashMap重写了init()方法,在调用父类的构造方法完成构造后,进一步实现了对其元素Entry的初始化操作。分析init()方法,的确是对header进行了初始化,并构造成一个双向循环链表(和LinkedList的存储结构是一样的)。

void init() {
    header = new Entry<K,V>(-1, null, null, null);
    header.before = header.after = header;
}

4.元素存储

LinkedHashMap重写了父类HashMap的put方法调用的子方法void addEntry(int hash, K key, V value, int bucketIndex) 和void createEntry(int hash, K key, V value, int bucketIndex),提供了自己特有的双向链接列表的实现。

	//覆写HashMap中的addEntry方法,LinkedHashmap并没有覆写HashMap中的put方法,
	//而是覆写了put方法所调用的addEntry方法和recordAccess方法,
	//put方法在插入的key已存在的情况下,会调用recordAccess方法,
	//在插入的key不存在的情况下,要调用addEntry插入新的Entry
void addEntry(int hash, K key, V value, int bucketIndex) {
	//创建新的Entry,并插入到LinkedHashMap中
    createEntry(hash, key, value, bucketIndex);

    //双向链表的第一个有效节点(header后的那个节点)为近期最少使用的节点
    Entry<K,V> eldest = header.after;
    //如果有必要,则删除掉该近期最少使用的节点,
	//这要看对removeEldestEntry的覆写,由于默认为false,因此默认是不做任何处理的。
    if (removeEldestEntry(eldest)) {
        removeEntryForKey(eldest.key);
    } else {
    	//超过阈值,扩容到原来的2倍
        if (size >= threshold)
            resize(2 * table.length);
    }
}

void createEntry(int hash, K key, V value, int bucketIndex) {
    HashMap.Entry<K,V> old = table[bucketIndex];
    Entry<K,V> e = new Entry<K,V>(hash, key, value, old);
    table[bucketIndex] = e;
    // 调用元素的addBrefore方法,将元素加入到哈希、双向链接列表。
    //每次插入Entry时,都将其移到双向链表的尾部,
	//这便会按照Entry插入LinkedHashMap的先后顺序来迭代元素,
	//同时,新put进来的Entry是最近访问的Entry,把其放在链表末尾,符合LRU算法的实现
    e.addBefore(header);
    size++;
}
//双向循环立链表中,将当前的Entry插入到existingEntry的前面
private void addBefore(Entry<K,V> existingEntry) {
    after  = existingEntry;
    before = existingEntry.before;
    before.after = this;
    after.before = this;
}

//该方法默认返回false,我们一般在用LinkedHashMap实现LRU算法时,
//要覆写该方法,一般的实现是,当设定的内存(这里指节点个数)达到最大值时,返回true,
//这样put新的Entry(该Entry的key在哈希表中没有已经存在)时,
//就会调用removeEntryForKey方法,将最近最少使用的节点删除(head后面的那个节点,实际上是最近没有使用)。
    protected boolean removeEldestEntry(Map.Entry<K,V> eldest) {
        return false;
    }
}

5.元素读取

LinkedHashMap重写了父类HashMap的get方法。由于的链表的增加、删除操作是常量级的,性能不会带来较大损失。LinkedHashMap 最牛逼的地方在于recordAccess()方法

	//覆写HashMap中的get方法,通过getEntry方法获取Entry对象。
	//注意这里的recordAccess方法,
	//如果链表中元素的排序规则是按照插入的先后顺序排序的话,该方法什么也不做,
	//如果链表中元素的排序规则是按照访问的先后顺序排序的话,则将e移到链表的末尾处。
public V get(Object key) {
    // 调用父类HashMap的getEntry()方法,取得要查找的元素。
    Entry<K,V> e = (Entry<K,V>)getEntry(key);
    if (e == null)
        return null;
    // 记录访问顺序。
    e.recordAccess(this);
    return e.value;
}
//覆写HashMap中的recordAccess方法(HashMap中该方法为空),
//当调用父类的put方法,在发现插入的key已经存在时,会调用该方法,
//调用LinkedHashmap覆写的get方法时,也会调用到该方法,
//该方法提供了LRU算法的实现,它将最近使用的Entry放到双向循环链表的尾部,
//accessOrder为true时,get方法会调用recordAccess方法
//put方法在覆盖key-value对时也会调用recordAccess方法
//它们导致Entry最近使用,因此将其移到双向链表的末尾
void recordAccess(HashMap<K,V> m) {
    LinkedHashMap<K,V> lm = (LinkedHashMap<K,V>)m;
	//如果链表中元素按照访问顺序排序,则将当前访问的Entry移到双向循环链表的尾部,
	//如果是按照插入的先后顺序排序,则不做任何事情。
    if (lm.accessOrder) {
        lm.modCount++;
        remove();//移除当前访问的Entry
        addBefore(lm.header);//将当前访问的Entry插入到链表的尾部
    }
}

6.元素删除

LinkedHashMap没有重写remove(Object key)方法,重写了被remove调用的recordRemoval方法,再一次感叹模板方法模式的精妙!
HahsMap remove(Object key)把数据从横向数组 * 竖向next链表里面移除之后(就已经完成工作了,所以HashMap里面recordRemoval是空的实现调用了此方法
但在LinkedHashMap里面,还需要移除header链表里面Entry的after和before关系。

 // 继承了HashMap.Entry  
private static class Entry<K, V> extends HashMap.Entry<K, V> {  
 
    void recordRemoval(HashMap<K, V> m) {  
        remove();  
    }  
      
    //让当前Entry从header链表中消失  
    private void remove() {  
        before.after = after;  
        after.before = before;  
    }  
}  
    

7.元素遍历

	//迭代器
    private abstract class LinkedHashIterator<T> implements Iterator<T> {
        Entry<K,V> nextEntry    = header.after;
        Entry<K,V> lastReturned = null;

        /**
         * The modCount value that the iterator believes that the backing
         * List should have.  If this expectation is violated, the iterator
         * has detected concurrent modification.
         */
        int expectedModCount = modCount;

        public boolean hasNext() {
            return nextEntry != header;
        }

        public void remove() {
            if (lastReturned == null)
                throw new IllegalStateException();
            if (modCount != expectedModCount)
                throw new ConcurrentModificationException();

            LinkedHashMap.this.remove(lastReturned.key);
            lastReturned = null;
            expectedModCount = modCount;
        }
        //从head的下一个节点开始迭代
        Entry<K,V> nextEntry() {
            if (modCount != expectedModCount)
                throw new ConcurrentModificationException();
            if (nextEntry == header)
                throw new NoSuchElementException();

            Entry<K,V> e = lastReturned = nextEntry;
            nextEntry = e.after;
            return e;
        }
    }
    //key迭代器
    //看出这三个类都很简单,只有一个next()方法,next()方法也只是去调用LinkedHashIterator类中相应的方法
    private class KeyIterator extends LinkedHashIterator<K> {
        public K next() { return nextEntry().getKey(); }
    }
    //value迭代器
    private class ValueIterator extends LinkedHashIterator<V> {
        public V next() { return nextEntry().value; }
    }
    //Entry迭代器
    private class EntryIterator extends LinkedHashIterator<Map.Entry<K,V>> {
        public Map.Entry<K,V> next() { return nextEntry(); }
    }

8.基于LinkedHashMap实现LRU Cache

用LinkedHashmap实现LRU算法,就要覆写方法removeEldestEntry。该方法默认返回false,我们一般在用LinkedHashMap实现LRU算法时,要覆写该方法,一般的实现是,当设定的内存(这里指节点个数)达到最大值时,返回true,这样put新的Entry(该Entry的key在哈希表中没有已经存在)时,就会调用removeEntryForKey方法,将最近最少使用的节点删除(head后面的那个节点,实际上是最近没有使用)。

LinkedHashMap是如何实现LRU的。首先,当accessOrder为true时,才会开启按访问顺序排序的模式,才能用来实现LRU算法。我们 可以看到,无论是put方法还是get方法,都会导致目标Entry成为最近访问的Entry,因此便把该Entry加入到了双向链表的末尾( get方法通过调用recordAccess方法来实现,put方法在覆盖已有key的情况下,也是通过调用recordAccess方法来实现,在插入新的Entry时,则是通过createEntry中的addBefore方法来实现),这样便把最近使用了的Entry放入到了双向链表的后面,多次操作后, 双向链表前面的Entry便是最近没有使用的,这样当节点个数满的时候,删除的最前面的Entry(head后面的那个Entry)便是最近最少使用的Entry。

/*LRU是Least Recently Used 近期最少使用算法。
 *通过HashLiekedMap实现LRU的算法的关键是,如果map里面的元素个数大于了缓存最大容量,则删除链表头元素
 */

/*public LinkedHashMap(int initialCapacity,float loadFactor,boolean accessOrder)
 *LRU参数参数:
 *initialCapacity - 初始容量。
 *loadFactor - 加载因子(需要是按该因子扩充容量)。
 *accessOrder - 排序模式( true) - 对于访问顺序(get一个元素后,这个元素被加到最后,使用了LRU  最近最少被使用的调度算法),对于插入顺序,则为 false,可以不断加入元素。
 */

 /*相关思路介绍:
  * 当有一个新的元素加入到链表里面时,程序会调用LinkedHahMap类中Entry的addEntry方法,
  *而该方法又会 会调用removeEldestEntry方法,这里就是实现LRU元素过期机制的地方,
  * 默认的情况下removeEldestEntry方法只返回false,表示可以一直表链表里面增加元素,在这个里  *修改一下就好了。 
  *
  */
 
/*
测试数据:
11
7 0 7 1 0 1 2 1 2 6
*/

import java.util.*;
public class LRULinkedHashMap<K,V> extends LinkedHashMap<K,V>{     
    private int capacity;                     //初始内存容量
    
    LRULinkedHashMap(int capacity){          //构造方法,传入一个参数
        super(16,0.75f,true);               //调用LinkedHashMap,传入参数    
        this.capacity=capacity;             //传递指定的最大内存容量
    }
    @Override
    public boolean removeEldestEntry(Map.Entry<K, V> eldest){     
        //,每加入一个元素,就判断是size是否超过了已定的容量
        System.out.println("此时的size大小="+size());
        if((size()>capacity))
        {
            System.out.println("超出已定的内存容量,把链表顶端元素移除:"+eldest.getValue());
        }
        return size()>capacity;        
    }
    
    public static void main(String[] args) throws Exception{//方便实例,直接将异常抛出
        Scanner cin = new Scanner(System.in);
        
        System.out.println("请输入总共内存页面数: ");
        int n = cin.nextInt();
        Map<Integer,Integer> map=new LRULinkedHashMap<Integer, Integer>(n);
        
        System.out.println("请输入按顺序输入要访问内存的总共页面数: ");
        int y = cin.nextInt();
        
        System.out.println("请输入按顺序输入访问内存的页面序列: ");
        for(int i=1;i<=y;i++)
        {
            int x = cin.nextInt();
            map.put(x,  x);  
        }
        System.out.println("此时内存中包含的页面数是有:");
        //遍历此时内存中的页面并输出
        for(java.util.Map.Entry<Integer, Integer> entry: map.entrySet()){
            System.out.println(entry.getValue());
        }
    }
}

9.总结

  1. LinkedHashMap继承自HashMap,具有HashMap的大部分特性,比如支持null键和值,默认容量为16,装载因子为0.75,非线程安全等等;

  2. LinkedHashMap通过设置accessOrder控制遍历顺序是按照插入顺序还是按照访问顺序。当accessOrder为true时,可以利用其完成LRU缓存的功能;

  3. LinkedHashMap内部维护了一个双向循环链表,并且其迭代操作时通过链表完成的,而不是去遍历hash表。

]]>
Mac & Ubuntu 配置openvpn客户端 2015-07-02T00:00:00+00:00 andygc http://angelof7.github.io/mac-ubuntu-openvpn Mac

tunnelblick

Ubuntu


  1. # sudo apt-get install openvpn

  2. # cd /etc/openvpn

  3. # cp ~/Downloads/client.ovpn .

  4. # sudo openvpn /etc/openvpn/client.ovpn

  5. 后台连接:

    # sudo openvpn /etc/openvpn/client.ovpn > /dev/null &

  6. 开机启动:
    将上述命令加入:

    /etc/rc.local

]]>
git clone后没有代码 2015-06-24T00:00:00+00:00 andygc http://angelof7.github.io/git-clone-empty 用git clone 下载项目后,目录中只有.git目录

原因


这个repository中存在多个分支下载的这个分支是个bare repository

解决方法


  1. 查看远程分支:

    git branch -r -a

  2. checkout:

    git checkout branch_name

]]>
Linux中常用系统管理shell命令 2015-05-30T00:00:00+00:00 andygc http://angelof7.github.io/linux-shell-system 本篇博客记录常用的Linux系统管理shell

ps


  1. ps 的参数说明 l 长格式输出; u 按用户名和启动时间的顺序来显示进程; j 用任务格式来显示进程; f 用树形格式来显示进程; a 显示所有用户的所有进程(包括其它用户);
    x 显示无控制终端的进程;
    r 显示运行中的进程;
    ww 避免详细参数被截断;
    我们常用的选项是组合是aux -ef 输出的解释;
    USER 进程的属主;
    PID 进程的ID;
    PPID 父进程;
    %CPU 进程占用的CPU百分比;
    %MEM 占用内存的百分比;
    NI 进程的NICE值,数值大,表示较少占用CPU时间;
    VSZ 进程虚拟大小;
    RSS 驻留中页的数量;
    WCHAN 正在等待的进程资源
    TTY 终端ID
    STAT 进程状态
    START 启动进程的时间; TIME 进程消耗CPU的时间;
    COMMAND 命令的名称和参数;
    实例

    ps -aux | more
    ps -aux > ps001.txt
    ps aux | grep httpd
    ps auxf |grep httpd
    pgrep 是通过程序的名字来查询进程的工具,一般是用来判断程序是否正在运行:
    常用参数:
    -l 列出程序名和进程ID;
    -o 进程起始的ID;
    -n 进程终止的ID;
    pgrep -l httpd

kill


kill

kill的应用是和ps 或pgrep 命令结合在一起使用的;
用法
kill [信号代码] 进程ID
注:信号代码可以省略;我们常用的信号代码是 -9 ,表示强制终止;

killall

killall 通过程序的名字,直接杀死所有进程,咱们简单说一下就行了。
用法
killall 正在运行的程序名
killall 也和ps或pgrep 结合使用,比较方便;通过ps或pgrep 来查看哪些程序在运行;
举例

[root@localhost beinan]# pgrep -l gaim
2979 gaim
[root@localhost beinan]# killall gaim

pkill

pkill 和killall 应用方法差不多,也是直接杀死运行中的程序;如果您想杀掉单个进程,请用kill 来杀掉。
用法
pkill 正在运行的程序名
举例

[root@localhost beinan]# pgrep -l gaim

2979 gaim

[root@localhost beinan]# pkill gaim

xkill

xkill 是在桌面用的杀死图形界面的程序。比如当firefox 出现崩溃不能退出时,点鼠标就能杀死firefox 。当xkill运行时出来和个人脑骨的图标,哪个图形程序崩溃一点就OK了。如果您想终止xkill ,就按右键取消; 用法

[root@localhost ~]# xkill

top


TOP是一个动态显示过程,即可以通过用户按键来不断刷新当前状态.如果在前台执行该命令,它将独占前台,直到用户终止该程序为止.比较准确的说,top命令提供了实时的对系统处理器的状态监视.它将显示系统中CPU最“敏感”的任务列表.该命令可以按CPU使用.内存使用和执行时间对任务进行排序;而且该命令的很多特性都可以通过交互式命令或者在个人定制文件中进行设定.

total 进程总数
running 正在运行的进程数
sleeping 睡眠的进程数
stopped 停止的进程数
zombie 僵尸进程数
Cpu(s):
0.3% us 用户空间占用CPU百分比
1.0% sy 内核空间占用CPU百分比
0.0% ni 用户进程空间内改变过优先级的进程占用CPU百分比
98.7% id 空闲CPU百分比
0.0% wa 等待输入输出的CPU时间百分比
0.0%hi:硬件CPU中断占用百分比
0.0%si:软中断占用百分比
0.0%st:虚拟机占用百分比

Mem:
191272k total 物理内存总量
173656k used 使用的物理内存总量
17616k free 空闲内存总量
22052k buffers 用作内核缓存的内存量
Swap:
192772k total 交换区总量
0k used 使用的交换区总量
192772k free 空闲交换区总量
123988k cached 缓冲的交换区总量,内存中的内容被换出到交换区,而后又被换入到内存,但使用过的交换区尚未被覆盖,该数值即为这些内容已存在于内存中的交换区的大小,相应的内存再次被换出时可不必再对交换区写入。

序号 列名 含义
a PID 进程id
b PPID 父进程id
c RUSER Real user name
d UID 进程所有者的用户id
e USER 进程所有者的用户名
f GROUP 进程所有者的组名
g TTY 启动进程的终端名。不是从终端启动的进程则显示为 ?
h PR 优先级
i NI nice值。负值表示高优先级,正值表示低优先级
j P 最后使用的CPU,仅在多CPU环境下有意义
k %CPU 上次更新到现在的CPU时间占用百分比
l TIME 进程使用的CPU时间总计,单位秒
m TIME+ 进程使用的CPU时间总计,单位1/100秒
n %MEM 进程使用的物理内存百分比
o VIRT 进程使用的虚拟内存总量,单位kb。VIRT=SWAP+RES
p SWAP 进程使用的虚拟内存中,被换出的大小,单位kb。
q RES 进程使用的、未被换出的物理内存大小,单位kb。RES=CODE+DATA
r CODE 可执行代码占用的物理内存大小,单位kb
s DATA 可执行代码以外的部分(数据段+栈)占用的物理内存大小,单位kb
t SHR 共享内存大小,单位kb
u nFLT 页面错误次数
v nDRT 最后一次写入到现在,被修改过的页面数。
w S 进程状态(D=不可中断的睡眠状态,R=运行,S=睡眠,T=跟踪/停止,Z=僵尸进程)
x COMMAND 命令名/命令行
y WCHAN 若该进程在睡眠,则显示睡眠中的系统函数名
z Flags 任务标志,参考 sched.h

top使用格式:

top [-] [d] [p] [q] [c] [C] [S] [s] [n]

d 指定每两次屏幕信息刷新之间的时间间隔。当然用户可以使用s交互命令来改变之。 p 通过指定监控进程ID来仅仅监控某个进程的状态。 q 该选项将使top没有任何延迟的进行刷新。如果调用程序有超级用户权限,那么top将以尽可能高的优先级运行。 S 指定累计模式 s 使top命令在安全模式中运行。这将去除交互命令所带来的潜在危险。 i 使top不显示任何闲置或者僵死进程。 c 显示整个命令行而不只是显示命令名

Ctrl+L 擦除并且重写屏幕。

h或者? 显示帮助画面,给出一些简短的命令总结说明。

k 终止一个进程。系统将提示用户输入需要终止的进程PID,以及需要发送给该进程什么样的信号。一般的终止进程可以使用15信号;如果不能正常结束那就使用信号9强制结束该进程。默认值是信号15。在安全模式中此命令被屏蔽。

i 忽略闲置和僵死进程。这是一个开关式命令。

q 退出程序。

r 重新安排一个进程的优先级别。系统提示用户输入需要改变的进程PID以及需要设置的进程优先级值。输入一个正值将使优先级降低,反之则可以使该进程拥有更高的优先权。默认值是10。

S 切换到累计模式。

s 改变两次刷新之间的延迟时间。系统将提示用户输入新的时间,单位为s。如果有小数,就换算成m s。输入0值则系统将不断刷新,默认值是5 s。需要注意的是如果设置太小的时间,很可能会引起不断刷新,从而根本来不及看清显示的情况,而且系统负载也会大大增加。

f或者F 从当前显示中添加或者删除项目。

o或者O 改变显示项目的顺序。

l 切换显示平均负载和启动时间信息。

m 切换显示内存信息。

t 切换显示进程和CPU状态信息。

c 切换显示命令名称和完整命令行。

M 根据驻留内存大小进行排序。

P 根据CPU使用百分比大小进行排序。

T 根据时间/累计时间进行排序。

W 将当前设置写入~/.toprc文件中。这是写top配置文件的推荐方法。

free


free命令由procps.*.rpm提供(在Redhat系列的OS上)。free命令的所有输出值都是从/proc/meminfo中读出的。

系统


# uname -a # 查看内核/操作系统/CPU信息  
# head -n 1 /etc/issue # 查看操作系统版本  
# cat /proc/cpuinfo # 查看CPU信息    
# hostname # 查看计算机名  
# lspci -tv # 列出所有PCI设备  
# lsusb -tv # 列出所有USB设备  
# lsmod # 列出加载的内核模块  
# env # 查看环境变量  

资源


# free -m # 查看内存使用量和交换区使用量  
# df -h # 查看各分区使用情况   
# du -sh <目录名> # 查看指定目录的大小  
# grep MemTotal /proc/meminfo # 查看内存总量  
# grep MemFree /proc/meminfo # 查看空闲内存量  
# uptime # 查看系统运行时间、用户数、负载  
# cat /proc/loadavg # 查看系统负载  

磁盘和分区


# mount | column -t # 查看挂接的分区状态  
# fdisk -l # 查看所有分区  
# swapon -s # 查看所有交换分区  
# hdparm -i /dev/hda # 查看磁盘参数(仅适用于IDE设备)  
# dmesg | grep IDE # 查看启动时IDE设备检测状况  

网络


# ifconfig # 查看所有网络接口的属性  
# iptables -L # 查看防火墙设置  
# route -n # 查看路由表  
# netstat -lntp # 查看所有监听端口  
# netstat -antp # 查看所有已经建立的连接  
# netstat -s # 查看网络统计信息  

进程


# ps -ef # 查看所有进程  
# top # 实时显示进程状态  

用户


# w # 查看活动用户  
# id <用户名> # 查看指定用户信息  
# last # 查看用户登录日志  
# cut -d: -f1 /etc/passwd # 查看系统所有用户  
# cut -d: -f1 /etc/group # 查看系统所有组  
# crontab -l # 查看当前用户的计划任务  

服务


# chkconfig --list # 列出所有系统服务  
# chkconfig --list | grep on # 列出所有启动的系统服务  

程序


# rpm -qa # 查看所有安装的软件包  
]]>
在CentOS服务器中创建Git仓库并同步网站 2015-05-26T00:00:00+00:00 andygc http://angelof7.github.io/CentOS-git-hooks 本篇博客记录在CentOS服务器中部署Git仓库,并同步apache中的网站目录的过程

###搭建Git服务器

  1. 安装git

  2. 创建一个git用户:

    sudo adduser git

  3. 创建证书登陆: 收集所有需要登录的用户的公钥(id_rsa.pub),把所有公钥导入到~/.ssh/authorized_keys文件中,一行一个

  4. 初始化git仓库:

    sudo git init –bare test.git

sudo chown -R git:git test.git

  1. 禁用git用户的Shell登陆: 修改/etc/passwd中的

    git:x:1001:1001:,,,:/home/git:/bin/bash

改为:

git:x:1001:1001:,,,:/home/git:/usr/bin/git-shell

  1. 构建Hook:

    cd test.git

cat > hooks/post-receive

#!/bin/bash

GIT_WORK_TREE=/var/www/blog git checkout -f

chmod +x hooks/post-receive

###本地clone并推送

  1. cd work

  2. git clone git@server_address:/root/test/test.git

  3. cd test

  4. touch README.md

  5. git add .

  6. git commit -m “initial commit”

  7. git push origin master

###二级域名

  1. 万网设置

  2. Apache设置

NamevirtualHost *:80

<VirtualHost *:80>
	ServerName a.com
	DocumentRoot /var/www/site
</VirtualHost>

<VirtualHost *:80>
	ServerName bbs.a.com
	DocumentRoot /var/www/bbs
</VirtualHost>
]]>
全排列算法(Java实现) 2015-04-29T00:00:00+00:00 andygc http://angelof7.github.io/permutation-array 设一组数p = {r1, r2, r3, … ,rn}, 全排列为perm(p),pn = p - {rn}。

因此perm(p) = r1perm(p1), r2perm(p2), r3perm(p3), … , rnperm(pn)。当n = 1时perm(p} = r1。

实现java代码如下:

    public class Permutate {
        public static int total = 0;
        public static void swap(String[] str, int i, int j)
        {
	        String temp = new String();
	        temp = str[i];
	        str[i] = str[j];
	        str[j] = temp;
        }
        public static void arrange (String[] str, int st, int len)
        {
                if (st == len - 1)
                {
                        for (int i = 0; i < len; i ++)
                        {
                                System.out.print(str[i]+ "  ");
                        }
                        System.out.println();
                        total++;
                }
                else
                {
                        for (int i = st; i < len; i ++)
                        {
                                swap(str, st, i);
                                arrange(str, st + 1, len);
                                swap(str, st, i);
                        }
                }
		
        }
	/**
	 * @param args
	 */
        public static void main(String[] args) {
                String str[] = {"a", "b", "c", "d", "e"};
                arrange(str, 0, str.length);
                System.out.println(total);
        }
    }
]]>