Linux服务器有两个网卡,配置eth0为公网使用,eth1为内网使用。

分别为两个网卡配置IP地址,DNS,网关等。重启生效后,发现无法访问公网,ping网关也能ping通,ping同一个网关下的其他公网地址也能ping通。

1> 刚开始ping的时使用域名,怀疑是DNS无法解析,遂直接ping IP地址,同样无法ping,排除与DNS的关系。

2> 由于能够ping同一个网关下的IP地址,所以服务器网卡等肯定没有问题。应该还是网卡配置导致。

3> 后来仔细检查eth0和eth1的配置,发现配置了两个网关。其中eth1配置了内网的网关,修改eht1的网关与eth0一致后,问题解决。

上述问题还是比较容易犯,配置网卡的时候通常都是和别的环境对照着配,稍不注意,就会配置多个网关。

来自:http://www.linuxidc.com/Linux/2011-03/32955.htm
背景:前两天搞那个笔记本光驱位启动偶尔出现启动不对,给试着做了一个U盘作为启动盘后,发现插入后,只有8M。

Microsoft Windows [版本 6.1.7601]
版权所有 (c) 2009 Microsoft Corporation。保留所有权利。

C:\Users\Administrator>diskpart

Microsoft DiskPart 版本 6.1.7601
Copyright (C) 1999-2008 Microsoft Corporation.
在计算机上: USER-2S1CISV9DB

DISKPART> list disk

  磁盘 ###  状态           大小     可用     Dyn  Gpt
  --------  -------------  -------  -------  ---  ---
  磁盘 0    联机              119 GB     8 MB
  磁盘 1    联机              465 GB  1024 KB
  磁盘 2    联机             3840 MB    64 KB

DISKPART> select disk 2

磁盘 2 现在是所选磁盘。

DISKPART> clean

DiskPart 成功地清除了磁盘。

DISKPART>


第二步,不能直接在盘符上点格式化,是格式化不了的。
右击计算机,选择管理,进入磁盘管理,能看到u盘分区是未分配(黑色),右击,新建分区,后格式化,一直下一步就OK了。

参考:http://wenku.baidu.com/link?url=GdwdGJFfmxY-cWkAjf0nuUMxehOILyFnc20iwmUNtsF-FIG_WttKC4BSiiC1FKAx2ls9P3DoXJ1pME7VOyhr4_arATMkqMdCuL0wMv3bZLW
摘自:http://jingyan.baidu.com/article/b24f6c82dddece86bee5da67.html

设置一下吐核,按Swoole官方的Wiki教程,设置一下吐核,From: https://wiki.swoole.com/wiki/page/10.html :
一、开启CoreDump:
ulimit -c   #查看
#ulimit -c unlimited
使用gdb来查看core dump信息。core文件一般在当前目录,如果操作系统做了处理,将core dump文件放置到其他目录,请替换为相应的路径


二、设置内核参数将吐的核放到指定目录下指定格式存放:
kernel.core_pattern = /data/core_files/core-%e-%p-%t
通过ulimit -c命令查看当前coredump文件的限制
ulimit -c
打开core dump
ulimit -c unlimited

三、调试:
#gdb /usr/bin/httpd core.123
gdb /usr/local/nginx/sbin/nginx core.456

四、在GDB里使用bt命令调试等:
在gdb下输入bt查看调用栈信息

(gdb)bt
Program terminated with signal 11, Segmentation fault.
#0  0x00007f1cdbe205e0 in swServer_onTimer (reactor=<value optimized out>, event=...)  
    at /usr/local/php/swoole-swoole-1.5.9b/src/network/Server.c:92
92                              serv->onTimer(serv, timer_node->interval);
Missing separate debuginfos, use: debuginfo-install php-cli-5.3.3-22.el6.x86_64
在gdb中使用f指令查看代码段

(gdb)f 1
(gdb)f 0

五、像这种退出不是段错误,没有Coredump的:
==> /data/logs/nginx/error.log <==

2017/08/16 11:56:52 [notice] 41234#0: signal 17 (SIGCHLD) received
2017/08/16 11:56:52 [notice] 41234#0: worker process 41237 exited with code 2
2017/08/16 11:56:52 [alert] 41234#0: worker process 41237 exited with fatal code 2 and cannot be respawned
2017/08/16 11:56:52 [notice] 41234#0: signal 29 (SIGIO) received
2017/08/16 11:56:52 [emerg] 41236#0: load ip map file error: /usr/local/nginx/conf/ip.map

2017/08/16 11:56:52 [notice] 41234#0: signal 17 (SIGCHLD) received
2017/08/16 11:56:52 [notice] 41234#0: worker process 41236 exited with code 2
2017/08/16 11:56:52 [alert] 41234#0: worker process 41236 exited with fatal code 2 and cannot be respawned
原因是:一个文件不存在,故意移动了下:
mv /usr/local/nginx/conf/ip.map /usr/local/nginx/conf/ip.map.bak
===================================================================================
使用gdb来查看core dump信息。core文件一般在当前目录,如果操作系统做了处理,将core dump文件放置到其他目录,请替换为相应的路径
gdb php core
gdb php /tmp/core.4596
在gdb下输入bt查看调用栈信息
(gdb)bt
Program terminated with signal 11, Segmentation fault.
#0  0x00007f1cdbe205e0 in swServer_onTimer (reactor=<value optimized out>, event=...)  
    at /usr/local/php/swoole-swoole-1.5.9b/src/network/Server.c:92
92                              serv->onTimer(serv, timer_node->interval);
Missing separate debuginfos, use: debuginfo-install php-cli-5.3.3-22.el6.x86_64
在gdb中使用f指令查看代码段
(gdb)f 1
(gdb)f 0


对gdb下f命令的实践,能显示哪一行出了问题:
(gdb) bt
#0  0x00007ffff7b01980 in __read_nocancel () at ../sysdeps/unix/syscall-template.S:81
#1  0x00007ffff7a924a0 in _IO_new_file_underflow (fp=0x7ffff7dd5640 <_IO_2_1_stdin_>) at fileops.c:612
#2  0x00007ffff7a9342e in __GI__IO_default_uflow (fp=0x7ffff7dd5640 <_IO_2_1_stdin_>) at genops.c:436
#3  0x00007ffff7a753b3 in _IO_vfscanf_internal (s=<optimized out>, format=<optimized out>, argptr=argptr@entry=0x7fffffffe368, errp=errp@entry=0x0) at vfscanf.c:600
#4  0x00007ffff7a83a19 in __isoc99_scanf (format=<optimized out>) at isoc99_scanf.c:37
#5  0x00000000004006d4 in creat () at nodedemo.c:24
#6  0x000000000040075b in main () at nodedemo.c:46
(gdb) f 5
#5  0x00000000004006d4 in creat () at nodedemo.c:24
24          }
(gdb) f 2
#2  0x00007ffff7a9342e in __GI__IO_default_uflow (fp=0x7ffff7dd5640 <_IO_2_1_stdin_>) at genops.c:436
436       int ch = _IO_UNDERFLOW (fp);


如果为0,需要修改/etc/security/limits.conf,进行limit设置。
开启core-dump后,一旦程序发生异常,会将进程导出到文件。对于调查程序问题有很大的帮助
来自:http://wiki.swoole.com/wiki/page/10.html http://wiki.swoole.com/wiki/page/11.html
—————————————————————————————————————————————

记录一下。
1. ulimit -S -c unlimited
2. 在apache主配置文件中增加一行:CoreDumpDirectory /var/apache_coredump #目录随意
3. chown修改/var/apache_coredump的权限为apache子进程可写

注意:不要开启太久,core文件太多。占用太多磁盘空间
调试
gdb /usr/bin/httpd core.123
apache的coredump

来自:http://5iwww.blog.51cto.com/856039/761077
阅读全文
背景:最新的apr-1.5.1.tar.gz,configure时出现cannot remove `libtoolT’: No such file or directory。
在configure里面RM='$RM -f' 这里的$RM后面一定有一个空格。 如果后面 ... 时apr报错解决rm: cannot remove `libtoolT': No such file or directory.
解决办法:42432     $RM "$cfgfile"  删除掉。也可以修改下:
在configure里面 RM='$RM  -f'   这里的$RM后面一定有一个空格。 如果后面没有空格,直接连接减号,就依然会报错。把RM='$RM'改为RM='$RM  -f'
注意,此文件下载到本地修改在上传会报错。建议用VI修改,来处:http://blog.csdn.net/a673341766/article/details/9078011
————————————————————————————————————————————————
在源码编译的apr./configure时,出现问题,具体详细信息如下:

OS:Centos 5.6 32bit

Apr Version:1.4.8

报错信息如下:

error info:rm: cannot remove `libtoolT': No such file or directory

解决方法如下:

打开configure文件

找到30055(不同的版本可能位置不一样)

将这行代码注释掉

# $RM "$cfgfile"

然后重新编译,问题可以解决

来自:http://sxhxt.blog.51cto.com/5126000/1301432
==========================================================================
安装成功参考URL,Linux下源码安装Subversion及Apache:
http://blog.csdn.net/tcpipstack/article/details/8680706
Apache 安装一定要加参数:--enable-dav --enable-so参数:

上面的模块都是双小中间短横,不是一个,是两个,前几次编译都给搞一个,没编译出来这个svn的动态so。
总结:出现这种情况有可能三种情况:
1)rpm包不全。
2)rpm包32位和64位混用。
3)可能给CFLAGS加上不同的参数了,在启动时就加上了,如方便编译arm,得清掉这样的影响。
————————————————————————————————————————————————————————————
背景:今天安装http://mirrors.hust.edu.cn/apache//apr/apr-1.5.1.tar.gz 的时候,执行./configure --prefix=/usr/报错“configure: error: C compiler cannot create executables”;当时很疑惑,各种包都装了怎么会这样,原以为是gcc的问题,就把gcc整个全都卸了重装,但还是依然报错,然后换了memcached的版本也是不行,后来在网上找了一个,yum安装下就解决问题了。。。在此做个记录,也给有同样问题的朋友们解忧,主要是缺少一些库:
yum install glibc-*
还是不OK:
entos:  yum install zlib-devel.i686 3.出现错误:configure: error: C compiler cannot create executables 检查gcc版本,发现gcc版本是gcc-4.4,编译需要gcc-4.5,remove掉,重新安装,ok apt-get remove gcc-4.4 apt-get install gcc-4.5
http://blog.csdn.net/dyllove98/article/details/8917485
系统centos 6.3 32位 i386 自带gcc 4.4.6 升级到gcc 4.8
参考:http://www.cnblogs.com/zhangtingkuo/archive/2013/04/06/3002982.html
居然编译也依旧出现:
configure:4912: error: in `/data/software/subversion_Apache_SoftAll/apr-1.5.1':
configure:4915: error: C compiler cannot create executables
于是看了下:apr-1.5.1/config.log
configure:4864: gcc -O2 -pipe -mcpu=arm1176jzf-s -mfpu=vfp -mfloat-abi=hard -w   conftest.c  >&5
`-mcpu=' is deprecated. Use `-mtune=' or '-march=' instead.
cc1: error: unrecognized command line option "-mfpu=vfp"
这个玩意,想起来了,是编译树莓派时给在/root/.bashrc里加上的:
export PATH=/opt/arm-bcm2708/arm-bcm2708hardfp-linux-gnueabi/bin/:/opt/gcc-3.4.5-glibc-2.3.6/bin/:$PATH
export CFLAGS="-O2 -pipe -mcpu=arm1176jzf-s -mfpu=vfp -mfloat-abi=hard -w"
于是去了,去了还一样,还不行,明白了,去了以前影响还在,得:export CFLAGS="",于是好了。
一搜网上,N年前我的博文里也描述过类似的问题,但那是由于32位和64位不同的rpm包引起的:
http://bbs.chinaunix.net/forum.php?mod=viewthread&tid=1976088
我本来想升级gcc的,升级还是不行,于是自己写个简单的测试下,就发现了,如下:
试写一个:
#include <stdio.h>
int main(){
printf("Helo,World");
return 1;
}

make helo
cc -O2 -pipe -mcpu=arm1176jzf-s -mfpu=vfp -mfloat-abi=hard -w    helo.c   -o helo
`-mcpu=' is deprecated. Use `-mtune=' or '-march=' instead.
cc1: 错误:无法识别的命令行选项“-mfpu=vfp”
cc1: 错误:无法识别的命令行选项“-mfloat-abi=hard”
helo.c:1: 错误:-mtune=switch所带参数(arm1176jzf-s)不正确
make: *** [helo] 错误 1

想起来了:做树莓派时给加了新的参数:
获得ARM GCC 交叉编译器
cd work/raspberry
git clone git://github.com/raspberrypi/tools.git
  这里官网下载可能比较慢,可以到我的资源下载 为 bcm2708hardfp编译器,和官方一样的
   http://download.csdn.net/detail/canyue102/6725615
安装该编译器,把编译器路径加入到环境变量中:
gedit ~/.bashrc
在最后一行添加:
export PATH=$PATH:/your_dir/tools-master/arm-bcm2708/arm-bcm2708hardfp-linux-gnueabi/bin/
在终端执行:
export CFLAGS="-O2 -pipe -mcpu=arm1176jzf-s -mfpu=vfp -mfloat-abi=hard -w"

上面加export来自:http://www.csdn123.com/html/technology/2013/20131218/3796.htm
/gcc-build-4.8.0# vi ~/.bashrc
export PATH=/opt/arm-bcm2708/arm-bcm2708hardfp-linux-gnueabi/bin/:/opt/gcc-3.4.5-glibc-2.3.6/bin/:$PATH
export CFLAGS="-O2 -pipe -mcpu=arm1176jzf-s -mfpu=vfp -mfloat-abi=hard -w"

——————————————————————————————————————————————————————————
开始摘录:
参考:http://www.cnblogs.com/zhangtingkuo/archive/2013/04/06/3002982.html

http://blog.csdn.net/magicyang87/article/details/7972169



1.下载源码包
wget http: //ftp.gnu.org/gnu/gcc/gcc-4.8.0/gcc-4.8.0.tar.bz2
解压: tar -jxvf  gcc-4.8.0.tar.bz2

2.下载编译所需依赖库
cd gcc-4.8.0
./contrib/download_prerequisites
cd ..

3.建立编译输出目录
mkdir gcc-build-4.8.0

4.进入此目录,执行以下命令,生成makefile文件
cd  gcc-build-4.8.0
../gcc-4.8.0/configure --enable-checking=release --enable-languages=c,c++ --disable-multilib

5.编译
make -j4
如果编译成功,则时间是比较长的,半个小时左右,所以如果你看它一直在输出没有立刻停下来,应该很开心!

6.安装
sudo make install

7.切换GCC到新版
确定新安装的GCC的路径,一般默认在/usr/local/bin下。可以先updatedb,然后locate gcc-4.8|tail找一下
ls /usr/local/bin | grep gcc
添加新GCC到可选项,倒数第三个是名字,倒数第二个参数为新GCC路径,最后一个参数40为优先级,设大一些之后就自动使用新版了
update-alternatives --install /usr/bin/gcc gcc /usr/local/bin/i686-pc-linux-gnu-gcc 40

8.确认当前版本已经切换为新版
gcc -v
我这里用ssh远程的,发现版本没变,断开重练下,重新生成会话后发现变成了4.8了!


看起来很顺有木有?!
心酸的弯路不知道走了多少呢!
以下是辛酸史。。
=================万恶的分割线===========================
首先是参考我们伟大的头儿的博客, http://blog.csdn.net/yanxiangtianji/article/details/8365630。

坑一、libstdc++-static

他这过程也是参考各种博客集成而来,因为我网上看大部分第一步都是: yum install glibc-static libstdc++-static -y
可其实centos的源上根本没有 libstdc++-static,第一个是有的,请安装。
坑爹的是,按照教程进行到编译make 之后,查看目录下的config.log 文件 ,搜索err,果然报 static- libstdc++的错!
这下我可认真了,死都要把 libstdc++-static装上。
首先,换centos的源,换了163的源(http://www.cnblogs.com/peterpanzsy/archive/2013/04/07/3003387.html),不行,后来跑oschina上提问,大神说epel源上应该有,于是换epel的源,仍然屁都没有!
于是去下rpm包,centos的软件包又不多,只能去下fedora的,一个家族的可以一试,epel源两者也通用的。
rpm -ivh xxx.rpm
结果出现依赖问题,于是下了这么一堆:
可是安装第一个的时候又跟系统自带的4.4.6版本的冲突,尼玛的,yum remove又因为依赖关系不可行,总不能卸载自带的gcc 4.4.7吧,后面编译新的gcc还要靠它呢,不能冲动。
今天上午就是乱搞,搞到报kernel的错,下午花了一个小时重装的系统。
还有一个原因,大神误以为他当年6.3的centos是成功yum装上了 libstdc++-static,于是我顺道重装的时候换成了centos6.3的版本,开始是6.4的其实。
最后发现6.3的源上也没有这个神奇的东西。
于是对安装 libstdc++-static绝望了。。。放弃。

坑二、三个依赖库是否要手动编译安装的问题。

进入gcc目录,执行:

./contrib/download_prerequisites

下正确版本的载那三个依赖的库。

大神说:可惜它不能自动配置编译安装,可以用我写的这个脚本来执行(假设当前是在contrib文件夹下):
cd gmd
./configure
make install
cd ../mpfr
./configure
make install
cd ../mpc
./configure
make install
可是真的要装吗?尼玛装完之后显然会出问题的!至少在我的实践里。我在网上偶然间看到有人这么说了一句,放心上了。
这么手动一装之后,编译gcc,直接报两个error停掉了,然后就出现第一步搜到的 libstdc++-static错误。

后来跳过手动装gmd  mpfr mpc之后,才执行了编译成功了。。。

坑三、共享库路径的问题

因为大神那篇博客里说以上的三个共享库不在系统默认路径下。
我们可以搜一下:locate mpc|grep so
   确实有/usr/local/lib/libmpc.so
可是当我在 /etc/ld.so.conf.d下面加上/usr/local/lib路径后执行ldconfig又报错,估计下面没有找到合法的库文件吧。
于是去掉,并且没有产生什么影响。


我是真心不知道大神那个是怎么会那么复杂的。。

来自:http://blog.csdn.net/dyllove98/article/details/8917485
实践情况:
/gcc-4.8.0# ./contrib/download_prerequisites
cd ..
mkdir gcc-build-4.8.0
cd  gcc-build-4.8.0
configure: error: in `/data/software/subversion_Apache_SoftAll/gcc-build-4.8.0':
configure: error: C compiler cannot create executables
See `config.log' for more details.


——————————————————不是这个问题,老老实实的安吧遇到确啥加上---------------------------

安装步骤原始来源:http://blog.csdn.net/tcpipstack/article/details/8680706
最新下载地址:
http://downloads.sourceforge.net/project/pcre/pcre/8.36/pcre-8.36.zip?r=http%3A%2F%2Fsourceforge.net%2Fprojects%2Fpcre%2Ffiles%2F&ts=1415418215&use_mirror=jaist
http://www.openssl.org/source/openssl-1.0.1j.tar.gz
http://mirrors.hust.edu.cn/apache//apr/apr-1.5.1.tar.gz
http://mirrors.hust.edu.cn/apache//apr/apr-util-1.5.4.tar.gz

解决 configure: error: C compiler cannot create executables
2014年03月17日 ⁄ Linux ⁄ 共 241字 ⁄ 暂无评论 ⁄ 被围观 2,049 views+

今天安装memcached的时候,执行./configure --prefix=/usr/报错“configure: error: C compiler cannot create executables”;当时很疑惑,各种包都装了怎么会这样,原以为是gcc的问题,就把gcc整个全都卸了重装,但还是依然报错,然后换了memcached的版本也是不行,后来在网上找了一个,yum安装下就解决问题了。。。在此做个记录,也给有同样问题的朋友们解忧,主要是缺少一些库:

yum install glibc-*
还是不OK:
entos:  yum install zlib-devel.i686 3.出现错误:configure: error: C compiler cannot create executables 检查gcc版本,发现gcc版本是gcc-4.4,编译需要gcc-4.5,remove掉,重新安装,ok apt-get remove gcc-4.4 apt-get install gcc-4.5
http://blog.csdn.net/dyllove98/article/details/8917485
系统centos 6.3 32位 i386 自带gcc 4.4.6 升级到gcc 4.8
参考:http://www.cnblogs.com/zhangtingkuo/archive/2013/04/06/3002982.html
——————————————————————————————————————————————————————————
安装APR
Apr & apr-util的下载地址:http://apr.apache.org/download.cgi
[plain] view plaincopy
    cd apr-1.4.6  
    //  
    ./buidconf  
    //  
    ./configure -h  
    //  
    ./configure --prefix=/usr/local/apr/  
编译和Install
[plain] view plaincopy
    make  
    make install  
configure时出现rm: cannot remove `libtoolT': No such file or directory问题解决办法:https://jackxiang.com/post/7619/

安装APR-UTIL
下载地址:http://www.fayea.com/apache-mirror//apr/apr-util-1.5.1.tar.bz2
安装步骤:
[plain] view plaincopy
    cd apr-util-1.5.1  
    ./buildconf  
    ./configure --prefix=/usr/local/apr-util/  
    ./configure --prefix=/usr/local/apr-util/ --with-apr=/usr/local/apr  
     make  
     make install  
安装OpenSSL
下载OpenSSL,地址是http://www.openssl.org/source/openssl-1.0.1d.tar.gz
安装过程:
[plain] view plaincopy
    #tar -xvf openssl-1.0.1d.tar.gz  
    #cd openssl-1.0.1d  
    #./config --prefix=/usr/local --openssldir=/usr/local/openssl  
    #make  
    #make test  
    #make install  
安装PCRE
下载pare,地址:http://nchc.dl.sourceforge.net/project/pcre/pcre/8.32/pcre-8.32.tar.gz
解压之后安装:
[plain] view plaincopy
    cd pcre-8.32  
    ./configure -h  
    ./configure --prefix=/usr/local/pcre  
    make  
    make install  
继续安装Apache HTTP Server,./configure 时加上参数 --with-apr=/usr/local/apr/ --with-apr-util=/usr/local/apr-util/ --with-pcre=/usr/local/pcre,这个问题就解决了:
[plain] view plaincopy
    ./configure --prefix=/usr/local/svn --with-apr=/usr/local/apr --with-apr-util=/usr/local/apr-util/ --with-pcre=/usr/local/pcre/  
注意:Apache在安装时不会检查参数是否正确,错误的参数会直接被丢弃,不会报告给用户。但可以使用echo $?命令检查是否有错误,当输出结果为0时表示没有错误。

serf 这个库提供的是对http和https协议的支持。值得说明的是,1.8版本之前这里依赖的是neon,1.8之后改成了serf。这里用的是serf-1.2.1

编译:./configure --prefix=/usr/local/serf --with-apr-util=/usr/local/apr-util --with-apr=/usr/local/apr && make && make install

/usr/bin/ld: cannot find -lexpat
collect2: ld returned 1 exit status

yum install expat
rpm -ql expat-2.0.1-11.el6_2.x86_64
/lib64/libexpat.so.1
/lib64/libexpat.so.1.5.2

vi /etc/ld.so.conf
/lib64/
这两行有用然后:
yum install expat
yum install expat-devel
./configure --prefix=/usr/local/serf --with-apr=/usr/local/apr --with-apr-util=/usr/local/apr-util
make && make install

安装subversion:
http://pkgs.fedoraproject.org/repo/pkgs/libserf/serf-1.3.4.tar.bz2/9820da2c46ee10773309f0de657cddfd/
serf-1.3.4.tar.bz2  放到那个subversion源码的temp目录下后:
root@119.10.6.23:/data/software/subversion_Apache_SoftAll/subversion-1.8.10# ./get-deps.sh
Local directory 'zlib' already exists; the downloaded copy won't be used
Local directory 'sqlite-amalgamation' already exists; the downloaded copy won't be used
Local directory 'apr' already exists; the downloaded copy won't be used
Local directory 'apr-util' already exists; the downloaded copy won't be used

./configure --prefix=/usr/local/subversion --with-apxs=/usr/local/apache2/bin/apxs \
--with-apr=/usr/local/apr --with-apr-util=/usr/local/apr-util --with-zlib \
--with-openssl --enable-maintainer-mode --with-serf=/usr/local/serf --enable-mod-activation

make && make install

检查svn是否支持http方式:
svn --version
配置svn请参考:http://blog.linuxeye.com/95.html
参考:
http://subversion.apache.org/docs/release-notes/1.8.html
http://code.google.com/p/serf/

1)建立版本库(Repository),配置subversion和http的关系:
mkdir -p /data/subversion/repositories
chown -R www:www /data/subversion/repositories

2)如果版本库的增改次数很频繁,可以写一个简单的脚本来实现快速调用:

3)接下来就是apache的配置了,这里要保证两个模块都已经正确放到模块目录中,检查是否安装成功看有没有加入下面两行:
安装成功会在/usr/local/apache2/conf/httpd.conf自己加入下面2行
LoadModule dav_svn_module     /usr/local/subversion/libexec/mod_dav_svn.so
LoadModule authz_svn_module   /usr/local/subversion/libexec/mod_authz_svn.so

4)Httpd下的svn扩展配置文件如下:
httpd.conf


5)配置文件里的文件:
cat /usr/local/apache2/conf/vhost.d/svn.boosh.com.cn.grp
admin: chluo jackxiang builder oscarzhu samonma yongwang bluexchen samliang phillipzhang dalazheng jasoncao ianzhang harry sally
ozzyad: marvin richard mandy ben amy vincent sam gary adam
ssd: kary
jgys_sz: zh_jgys lhq_jgys
haoyang: haoyang
mihekeji: mihekeji

cat  /usr/local/apache2/conf/vhost.d/svn.boosh.com.cn.pwd
sally:Y.FJC2U7MqJOU
harry:udpIl6wCO.LuI
jackxiang:cCkclYr9pb98o

6)启动: /usr/local/apache2/bin/apachectl start
启动apache出现undefined symbol: dav_register_provider错误:
从网上找了原因,是因为编译apache的时候没有加上
--enable-dav --enable-so参数
是因为--enable-dav 启用davweb支持,是subversion+apache组合必选,缺少的话,在运行apache会出现undefined symbol: dav_register_provider的错误
重新编译了一遍,OK了。摘自:http://blog.sina.com.cn/s/blog_5d15305b0101cn6q.html
还不行:
解决方法:
svn安装在 /usr/local/subversion,检查/usr/local/subversion/modules,里面已包含mod_authz_svn.so 与 mod_dav_svn.so。
要将他们复制或链接到apache的modules目录中才可以。

以前在自己的Vmware下面配置成功过,上面这些是在自己的那个vps上配置,以前配置成功的链接,特别是关于https这块的配置,得参考:
https://jackxiang.com/post/4229/
背景:这种情况一般是干下文件啥的,你在你亲戚家下载大文件到你的vps linux上,突然有事说要停电,此时正在一半,怎么办,那就是把当前进程放后台执行,第二步是脱离终端,于是你可以关掉ssh,走路坐车回家再看下完没有,下面这就是干这事的。
0)特别注意别一直有输入,用wget时有输入,这样对于第3部就需要按回车一瞬间输入命令,比较麻烦。
1)ctrl + Z (暂停)
2)bg %1
3)看通过2推到后台后还在下没(PID=6193):
jobs -l
[1]+  6193 Running                 wget http://download.virtualbox.org/virtualbox/4.3.18/VirtualBox-4.3-4.3.18_96516_el6-1.x86_64.rpm &
4)后台,还没有脱离终端,于是,还得脱离终端:
(1)disown -h %1  
(2)nohup -p 6193  [Linux下再开一个算是优点,第(1)个有个问题是只能在当前脱离终端里输入,新开终端无效,这样试试,发现: 我的是centos好像没有这个选项。]没有disown,但是可以使用nohup -p PID来获得disown同样的效果。
关掉终端,在其它终端再ps下,还在,不错:
ps aux|grep wget
root      6193  0.1  0.0 138500  2512 ?        S    19:40   0:03 wget http://download.virtualbox.org/virtualbox/4.3.18/VirtualBox-4.3-4.3.18_96516_el6-1.x86_64.rpm
阅读全文
背景:最近发现Log目录里各种服务的日志很大,想把它们都清空(非删除)。可是文件又多,位置又不一样,于是写了个脚本,可以快速解决以上问题:

我的实践Ok如下:


解释:在/home/www目录下查找后缀是.log的所有文件,并将其内容清空!

来自:http://bbs.51cto.com/thread-1072175-1.html
         http://www.jbxue.com/LINUXjishu/14410.html

附录:
linux下清空文件内容
1、> /var/log/asterisk/messages 或者 :> /var/log/asterisk/messages (文件大小被截为0字节)
2、cat /dev/null > /var/log/asterisk/messages (文件大小被截为0字节)
3、echo "" > /var/log/asterisk/messages(文件大小被截为1字节)

背景:从最早还是svn的模块和apache结合紧密一些,而后来Nginx的崛起后,也很多服务器用的是Nginx,这块个人认为Nginx应该以Https的形式来代码Apache内部的http,这样更安全一些。
阅读全文
背景:今天自己的vps服务器突然重启了,不知何原因,下面这些方法好像也没看明白,先写这儿。
1、Linux 服务器因 CPU 温度过高自动重启
http://www.s2.cn/news.php?id=33

2、Linux服务器不明原因重启了,怎么查找原因
http://bbs.51cto.com/archiver/tid-861470.html

3、重启的信息可以通过
dmesg来看
系统的log一般都是记录在/var/log/messages里
命令:
cat /var/log/messages | grep 'reboot'

4、linux启动日志: /var/log/boot.log

来自:http://blog.sina.com.cn/s/blog_56d8ea900101cytr.html
使用nohup执行多个命令:


背景:也就是如ssh登录后发邮件,用nohup可以快速推到后台,更快进入终端,不用直到发完邮件才进入#shell下。
nohup /usr/local/lighttpd/sbin/lighttpd -f /usr/local/lighttpd/etc/lighttpd.conf >/dev/null 2>&1 >/dev/null &
nohup /usr/local/cronolog/sbin/cronolog /data/logs/lighttpd/img.bbs.cntv.cn-access_%Y%m%d.log >/dev/null 2>&1 >/dev/null &

实践成功来自:https://blog.csdn.net/qq_27870421/article/details/90753948



From:http://www.tuxradar.com/answers/215





发邮件链接:
https://jackxiang.com/post/7579/

linux 重定向 标准错误与标准输出到同一文件 :


特别是那个错误输出啥的,这块strace就是一例:
strace php include.php > abcdef.txt  //这样显然是没法实现把输出导入到abcdef.txt文件的啦。

重定向标准错误到标准输出
cat foo 2>&1 得出:strace php include.php > abcdef.txt  2>&1 ,还有别的写法参考来自:
http://blog.chinaunix.net/uid-21142030-id-3211182.html



------------------------------------------------------------------------------------------------------------------------
      这种方式的输出重定向使得以     word     扩展结果为名的文件被打开并通过文件描述符    n    从尾部添加。如果没有指定    n    就使用标准输出    (文件描述符
       1)。如果文件不存在,它将被创建。

       重定向的一般形式是:

              [n]>>word

   Redirecting Standard Output and Standard Error
       Bash 允许使用这种结构将标准输出和标准错误 (文件描述符 1 和 2) 重定向到以 word 扩展结果为名的文件中。

       有两种重定向标准输出/标准错误的形式:

              &>word
       还有
              >&word

       两种形式中,推荐使用第一种。它与

              >word 2>&1
       在语义上等价。

     下列描述中,重定向操作符之后的词如果没有特殊说明,都要经过 brace expansion, tilde expansion,  parameter  expansion,  command  substitution,  arithmetic
       expansion, quote removal, pathname expansion, 还有 word splitting。如果扩展为多于一个词, bash 将报错。

       注意重定向的顺序非常重要。例如,命令

              ls > dirlist 2>&1

       将标准输出和标准错误重定向到文件 dirlist, 而命令

              ls 2>&1 > dirlist

       只会将标准输出重定向到文件 dirlist, 因为在标准输出被重定向到文件 dirlist 中之前,标准错误被复制为标准输出。
————————————————————————————————————————————————
先说一下linux重定向:
0、1和2分别表示标准输入、标准输出和标准错误信息输出,可以用来指定需要重定向的标准输入或输出。
在一般使用时,默认的是标准输出,既1.当我们需要特殊用途时,可以使用其他标号。例如,将某个程序的错误信息输出到log文件中:./program 2>log。这样标准输出还是在屏幕上,但是错误信息会输出到log文件中。
另外,也可以实现0,1,2之间的重定向。2>&1:将错误信息重定向到标准输出。
Linux下还有一个特殊的文件/dev/null,它就像一个无底洞,所有重定向到它的信息都会消失得无影无踪。这一点非常有用,当我们不需要回显程序的所有信息时,就可以将输出重定向到/dev/null。
如果想要正常输出和错误信息都不显示,则要把标准输出和标准错误都重定向到/dev/null, 例如:

# ls 1>/dev/null 2>/dev/null

还有一种做法是将错误重定向到标准输出,然后再重定向到 /dev/null,例如:

# ls >/dev/null 2>&1

注意:此处的顺序不能更改,否则达不到想要的效果,此时先将标准输出重定向到 /dev/null,然后将标准错误重定向到标准输出,由于标准输出已经重定向到了/dev/null,因此标准错误也会重定向到/dev/null,于是一切静悄悄:-)

由于使用nohup时,会自动将输出写入nohup.out文件中,如果文件很大的话,nohup.out就会不停的增大,这是我们不希望看到的,因此,可以利用/dev/null来解决这个问题。

(1)舍弃标准输出,将错误输出到log文件中

nohup ./program >/dev/null 2>log &

(2)如果错误信息也不想要的话:

nohup ./program >/dev/null 2>&1 &



+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

关于重定向,参考文章:http://bbs.chinaunix.net/forum.php?mod=viewthread&tid=484163

1. 基本概念

  a、I/O重定向通常与 FD有关,shell的FD通常为10个,即 0~9;(FD:file descripter,文件描述符)
  b、常用FD有3个,为: 0(stdin,标准输入)、1(stdout,标准输出)、2(stderr,标准错误输出),默认与keyboard、monitor、monitor有关;
  c、用 < 来改变读进的数据信道(stdin),使之从指定的档案读进;
  d、用 > 来改变送出的数据信道(stdout, stderr),使之输出到指定的档案;
  e、0 是 < 的默认值,因此 < 与 0<是一样的;同理,> 与 1> 是一样的;
  f、在IO重定向 中,stdout 与 stderr 的管道会先准备好,才会从 stdin 读进资料;
  g、管道“|”(pipe line):上一个命令的 stdout 接到下一个命令的 stdin;
  h、tee 命令是在不影响原本 I/O 的情况下,将 stdout 复制一份到档案去;
  i、bash(ksh)执行命令的过程:分析命令-变量求值-命令替代(``和$( ))-重定向-通配符展开-确定路径-执行命令;
  j、( )  将 command group 置于 sub-shell 去执行,也称 nested sub-shell,它有一点非常重要的特性是:继承父shell的Standard input, output, and error plus any other open file descriptors。
  k、exec 命令:常用来替代当前 shell 并重新启动一个 shell,换句话说,并没有启动子 shell。使用这一命令时任何现有环境都将会被清除,。exec 在对文件描述符进行操作的时候,也只有在这时,exec 不会覆盖你当前的 shell 环境。

2. 基本IO

  cmd > file                        把 stdout 重定向到 file 文件中
  cmd >> file                        把 stdout 重定向到 file 文件中(追加)
  cmd 1> fiel                        把 stdout 重定向到 file 文件中
  cmd > file 2>&1                把 stdout 和 stderr 一起重定向到 file 文件中
  cmd 2> file                        把 stderr 重定向到 file 文件中
  cmd 2>> file                        把 stderr 重定向到 file 文件中(追加)
  cmd >> file 2>&1                把 stderr 和 stderr 一起重定向到 file 文件中
  cmd < file >file2                cmd 命令以 file 文件作为 stdin,以 file2 文件作为 stdout
  cat <>file                             以读写的方式打开 file
  cmd < file                        cmd 命令以 file 文件作为 stdin
  cmd << delimiter                Here document,从 stdin 中读入,直至遇到delimiter 分界符

来自:http://ezplayer.diandian.com/post/2011-06-10/40040502293
CentOS 项目正式发布 CentOS 7.0-1406。相当于是 CentOS 7 的正式版。该版本使用存放于 git.centos.org 上的源码进行构建。所有的源码 rpms 采用相同的密钥进行签名,包括二进制文件。

同时从该版本开始 CentOS 将采用新的版本号规则,其中 1406 表示为 2014年6月。通过使用月份作为版本号,我们可以衍生和补发更新媒体容器和云映像、定期更新同时仍然保持连接到基础发行版的版本。

官方的发行说明请看:http://wiki.centos.org/Manuals/ReleaseNotes/CentOS7

CentOS 7 的主要变化包括:

内核更新至 3.10.0
支持 Linux 容器
Open VMware Tools 及 3D 图像能即装即用
OpenJDK-7 作为缺省 JDK
这次直接从 6.5 升级至 7.0(上文已提及)
ext4 及 XFS 的 LVM 快照
转用 systemd、firewalld 及 GRUB2
XFS 作为缺省文件系统
内核空间内的 iSCSI 及 FCoE
支持 PTPv2
支持 40G 网卡
更信息的改进说明请看红帽企业 Linux 7 的发行说明。

CentOS 7 只提供 64 位版本,下载地址:http://mirror.centos.org/centos/7/isos/

国内镜像:http://mirrors.aliyun.com/centos/7.0.1406/
背景:有时打包不想打包软链接,有时想要打上,这就是涉及到Linux下的tar命令了,找了下,有一个这样的参数,可使用。
-h, --dereference            dump instead the files symlinks point to
       -h, --dereference
       don't dump symlinks; dump the files they point to
实践如下:
[root@test tmp]# tar --help|grep dereference            
  -h, --dereference          dump instead the files symlinks point to.
1)只打软链接进来不打真实文件:
tar -zcvf  testtar-h.tar.gz testtar
2)打真实文件进来:
tar -zcvfh  testtar-h.tar.gz testtar

小技巧:
其实用scp也就自动把软链接给过滤掉了,根本不留下软链接。

摘自:http://bbs.chinaunix.net/thread-1447388-1-1.html

实践成功如下,注意h位置,否则报错:

参考自:http://t.zoukankan.com/TreeDream-p-10277075.html
MacBook下的watch安装方法brew install watch:
brew install watch (mac os)
https://www.jianshu.com/p/d75e50e38bb9

背景:
root@119.10.6.23:/usr/local/php# ps aux|grep watchdog
root         6  0.0  0.0      0     0 ?        S    Aug28   4:50 [watchdog/0]
root        10  0.0  0.0      0     0 ?        S    Aug28   4:11 [watchdog/1]
root        14  0.0  0.0      0     0 ?        S    Aug28   3:58 [watchdog/2]
root        18  0.0  0.0      0     0 ?        S    Aug28   3:36 [watchdog/3]
附:
最简单的安装教程(CentOS)
yum install watchdog -y
modprobe softdog
chkconfig watchdog  on
/etc/init.d/watchdog start

配置看门狗程序,开机自动运行
chkconfig watchdog on
启动看门狗
sudo /etc/init.d/watchdog start
——————————————————————————————————————
     Linux 自带了一个 watchdog 的实现,用于监视系统的运行,包括一个内核 watchdog module 和一个用户空间的 watchdog 程序。内核 watchdog 模块通过 /dev/watchdog 这个字符设备与用户空间通信。用户空间程序一旦打开 /dev/watchdog 设备(俗称“开门放狗”),就会导致在内核中启动一个1分钟的定时器(系统默认时间),此后,用户空间程序需要保证在1分钟之内向这个设备写入数据(俗称“定期喂狗”),每次写操作会导致重新设定定时器。如果用户空间程序在1分钟之内没有写操作,定时器到期会导致一次系统 reboot 操作(“狗咬人了”呵呵)。通过这种机制,我们可以保证系统核心进程大部分时间都处于运行状态,即使特定情形下进程崩溃,因无法正常定时“喂狗”,Linux系统在看门狗作用下重新启动(reboot),核心进程又运行起来了。多用于嵌入式系统。


打开 /dev/watchdog 设备(“开门放狗”):


每隔一段时间向 /dev/watchdog 设备写入数据(“定期喂狗”):


关闭 /dev/watchdog 设备,通常不需要这个步骤:


所需头文件:



转自:http://blog.csdn.net/liigo/article/details/9227205
摘自:http://bbs.linuxtone.org/thread-19567-1-1.html
摘自:http://wjjchen.blog.163.com/blog/static/1628722201342354415584/
【解决方案】
在/etc/sudoers中修改:
Defaults    env_reset
为:
Defaults    !env_reset

一)这样,任何环境变量都可以通过sudo传进去了。
二)那你就把变量写到那个脚本里面去好了,sudo肯定是不会带这个用户的变量过去的,因为两个用户不一样,除非你通过sudo的时候加export去携带。
三)su - -c "命令集"

不过我希望的是,能够不改我的脚本,通过修改系统配置的方式把环境变量传进去。
以前好像通过在/etc/sudoers中配置env_reset和env_keep的方式搞定过。。。
那你直接写到/etc/profile里面不就得了

搞定了!在/etc/sudoers中修改:
Defaults    env_reset
为:
Defaults    !env_reset

这样,任何环境变量都可以通过sudo传进去了。

来自:http://bbs.chinaunix.net/thread-1920936-1-1.html
:w !sudo tee %

/Users/jackXiang/.oh-my-zsh/.alias
alias vimsudow="echo -e \":w !sudo tee %\" && echo -e \"w !sudo tee %\" | pbcopy"

背景:经常碰到文件修改后才发现没有权限,而事先又没有使用sudo来编辑,有没办法实现保存此次修改不退出再sudo,也不存放临文件?
如:
root用户:
vi /tmp/tee.txt 写上123,保存退出后,再:
chmod -R 755 /tmp/tee.txt  
我再su xiangdong,打开这个文件,然后修改下,想保存,就会提示:E45: 'readonly' option is set (add ! to override)
你听vi提示后,真整个: w!  ,于是又提示你:
"tee.txt" E212: Can't open file for writing
Press ENTER or type command to continue
是不是很搞笑???下面扯了老半天,其说的就是这个问题。

root建立文件,属于root的,它再755后是一个什么状态分析起:
u g o :用户,组,其它!
R w X :读  ,写,执行!
4 2 1 : 4    , 2 ,   1   !
755,也就是说,root是啥都能干,组和其他只能是4+1,及是:读+执行,写2没有这个权限值。你是xiangdong,想修改当然不让修改了。
网上说是这样能摆平,如下:
:w !sudo tee %                                                                                                                                            
[sudo] password for xiangdong:
输入密码这儿
121
jack

Press ENTER or type command to continue  
于是按提示按下enter回车出现下面提示:
W12: Warning: File "tee.txt" has changed and the buffer was changed in Vim as well
See ":help W12" for more info.
[O]K, (L)oad File:
于是再按提示按L键出现(此时已经保存进去了。):
121
jack
"tee.txt" [readonly] 3L, 10C
xiangodng用户退出该vim后,再打开,确实保存成功了。
输入密码折腾一下验证确实是保存了的,经实践确实是可以的,下面就开始整这个是怎么实现的,我对此不太感兴趣,仅仅摘录如下:
——————————————————————————————————————————————————————————
在Linux上工作的朋友很可能遇到过这样一种情况,当你用Vim编辑完一个文件时,运行:wq保存退出,突然蹦出一个错误:
E45: 'readonly' option is set (add ! to override)

这表明文件是只读的,按照提示,加上!强制保存::w!,结果又一个错误出现:
"readonly-file-name" E212: Can't open file for writing

文件明明存在,为何提示无法打开?这错误又代表什么呢?查看文档:help E212:
For some reason the file you are writing to cannot be created or overwritten. The reason could be that you do not have permission to write in the directory or the file name is not valid.

原来是可能没有权限造成的。此时你才想起,这个文件需要root权限才能编辑,而当前登陆的只是普通用户,在编辑之前你忘了使用sudo来启动Vim,所以才保存失败。于是为了防止修改丢失,你只好先把它保存为另外一个临时文件temp-file-name,然后退出Vim,再运行sudo mv temp-file-name readonly-file-name覆盖原文件。

用vi修改文件,保存文件时,提示“readonly option is set”的解决方法:
This is a vim issue, not a file permission issue. If you did not have read permission on the file, you'd see a "Permission denied" error.

Do you invoke vi/vim with the -R option? Are you calling view instead of vi or vim? Do you have set readonly in your .vimrc or in a file in ~/.vim/ftplugin?

In vim you can enter :set noreadonly to unset the readonly flag.

步骤:

1.按Esc键

2.输入  :set noreadonly

3.然后就能正常保存了,你可以输入 :wq 来保存文件了。
来自:http://blog.csdn.net/longerandlonger/article/details/7266055

=============================================================================

目录
解决方案
Vim中执行外部命令
命令的另一种表示形式
%的意义
tee的作用
命令执行之后
更简单的方案:映射
另一种思路
重定向的问题
重定向方案
写在结尾
但这样操作过于繁琐。而且如果只是想暂存此文件,还需要接着修改,则希望保留Vim的工作状态,比如编辑历史,buffer状态等等,该怎么办?能不能在不退出Vim的情况下获得root权限来保存这个文件?

解决方案
答案是可以,执行这样一条命令即可:

:w !sudo tee %

接下来我们来分析这个命令为什么可以工作。首先查看文档:help :w,向下滚动一点可以看到:


把这个使用方法对应前面的命令,如下所示:


我们并未指定range,参见帮助文档最下面一行,当range未指定时,默认情况下是整个文件。此外,这里也没有指定opt。

Vim中执行外部命令
接下来是一个叹号!,它表示其后面部分是外部命令,即sudo tee %。文档中说的很清楚,这和直接执行:!{cmd}是一样的效果。后者的作用是打开shell执行一个命令,比如,运行:!ls,会显示当前工作目录下的所有文件,这非常有用,任何可以在shell中执行的命令都可以在不退出Vim的情况下运行,并且可以将结果读入到Vim中来。试想,如果你要在Vim中插入当前工作路径或者当前工作路径下的所有文件名,你可以运行:

:r !pwd或:r !ls
此时所有的内容便被读入至Vim,而不需要退出Vim,执行命令,然后拷贝粘贴至Vim中。有了它,Vim可以自由的操作shell而无需退出。

命令的另一种表示形式
再看前面的文档:

Execute {cmd} with [range] lines as standard input
所以实际上这个:w并未真的保存当前文件,就像执行:w new-file-name时,它将当前文件的内容保存到另外一个new-file-name的文件中,在这里它相当于一个另存为,而不是保存。它将当前文档的内容写到后面cmd的标准输入中,再来执行cmd,所以整个命令可以转换为一个具有相同功能的普通shell命令:

$ cat readonly-file-name | sudo tee %
这样看起来”正常”些了。其中sudo很好理解,意为切换至root执行后面的命令,tee和%是什么呢?

%的意义
我们先来看%,执行:help cmdline-special可以看到:



在执行外部命令时,%会扩展成当前文件名,所以上述的cmd也就成了sudo tee readonly-file-name。此时整个命令即:

$ cat readonly-file-name | sudo tee readonly-file-name
注意:在另外一个地方我们也经常用到%,没错,替换。但是那里%的作用不一样,执行:help :%查看文档:


在替换中,%的意义是代表整个文件,而不是文件名。所以对于命令:%s/old/new/g,它表示的是替换整篇文档中的old为new,而不是把文件名中的old换成new。

tee的作用
现在只剩一个难点: tee。它究竟有何用?维基百科上对其有一个详细的解释,你也可以查看man page。下面这幅图很形象的展示了tee是如何工作的:

点击在新窗口中浏览此图片
ls -l的输出经过管道传给了tee,后者做了两件事,首先拷贝一份数据到文件file.txt,同时再拷贝一份到其标准输出。数据再次经过管道传给less的标准输入,所以它在不影响原有管道的基础上对数据作了一份拷贝并保存到文件中。看上图中间部分,它很像大写的字母T,给数据流动增加了一个分支,tee的名字也由此而来。

现在上面的命令就容易理解了,tee将其标准输入中的内容写到了readonly-file-name中,从而达到了更新只读文件的目的。当然这里其实还有另外一半数据:tee的标准输出,但因为后面没有跟其它的命令,所以这份输出相当于被抛弃。当然也可以在后面补上> /dev/null,以显式的丢弃标准输出,但是这对整个操作没有影响,而且会增加输入的字符数,因此只需上述命令即可。

命令执行之后
运行完上述命令后,会出现下面的提示:

Vim提示文件更新,询问是确认还是重新加载文件。建议直接输入O,因为这样可以保留Vim的工作状态,比如编辑历史,buffer等,撤消等操作仍然可以继续。而如果选择L,文件会以全新的文件打开,所有的工作状态便丢失了,此时无法执行撤消,buffer中的内容也被清空。

更简单的方案:映射
上述方式非常完美的解决了文章开始提出的问题,但毕竟命令还是有些长,为了避免每次输入一长串的命令,可以将它映射为一个简单的命令加到.vimrc中:


这样,简单的运行:w!!即可。命令后半部分> /dev/null在前面已经解释过,作用为显式的丢掉标准输出的内容。

另一种思路
至此,一个比较完美但很tricky的方案已经完成。你可能会问,为什么不用下面这样更常见的命令呢?这不是更容易理解,更简单一些么?

:w !sudo cat > %
重定向的问题
我们来分析一遍,像前面一样,它可以被转换为相同功能的shell命令:

$ cat readonly-file-name | sudo cat > %
这条命令看起来一点问题没有,可一旦运行,又会出现另外一个错误:

/bin/sh: readonly-file-name: Permission denied  shell returned 1
这是怎么回事?不是明明加了sudo么,为什么还提示说没有权限?稍安勿躁,原因在于重定向,它是由shell执行的,在一切命令开始之前,shell便会执行重定向操作,所以重定向并未受sudo影响,而当前的shell本身也是以普通用户身份启动,也没有权限写此文件,因此便有了上面的错误。

重定向方案
这里介绍了几种解决重定向无权限错误的方法,当然除了tee方案以外,还有一种比较方便的方案:以sudo打开一个shell,然后在该具有root权限的shell中执行含重定向的命令,如:

:w !sudo sh -c 'cat > %'
可是这样执行时,由于单引号的存在,所以在Vim中%并不会展开,它被原封不动的传给了shell,而在shell中,一个单独的%相当于nil,所以文件被重定向到了nil,所有内容丢失,保存文件失败。

既然是由于%没有展开导致的错误,那么试着将单引号'换成双引号"再试一次:
:w !sudo sh -c "cat > %"
成功!这是因为在将命令传到shell去之前,%已经被扩展为当前的文件名。有关单引号和双引号的区别可以参考这里,简单的说就是单引号会将其内部的内容原封不动的传给命令,但是双引号会展开一些内容,比如变量,转义字符等。

当然,也可以像前面一样将它映射为一个简单的命令并添加到.vimrc中:

注意:这里不再需要把输出重定向到/dev/null中。

写在结尾
至此,借助Vim强大的灵活性,实现了两种方案,可以在以普通用户启动的Vim中保存需root权限的文件。两者的原理类似,都是利用了Vim可以执行外部命令这一特性,区别在于使用不同的shell命令。如果你还有其它的方案,欢迎给我留言。
来自:
http://www.kuqin.com/shuoit/20140731/341487.html
http://blog.csdn.net/xinhaozheng/article/details/5756838
http://segmentfault.com/q/1010000000130006
top使用_交互命令:
1、输入1可以看到CPU各个核的CPU负载(us,sy,id,wa等)
2、输入shift+p按CPU占用率排序
3、shift+m按内存占用率排序,
4 u然后输入用户名,查看指定用户的进程信息,shift+t按CPU用时排序,shift+n按PID排序  

重点讲下第一条:
1、输入1可以看到CPU各个核的CPU负载

Cpu0 : 1.0%us, 3.0%sy, 0.0%ni, 96.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st
Cpu1 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st

这里对us,sy,ni,id,wa,hi,si,st进行分别说明:

us  列显示了用户模式下所花费 CPU 时间的百分比。

      us的值比较高时,说明用户进程消耗的cpu时间多,但是如果长期大于50%,需要考虑优化用户的程序。

sy   列显示了内核进程所花费的cpu时间的百分比。

      这里us + sy的参考值为80%,如果us+sy 大于 80%说明可能存在CPU不足。
ni   列显示了用户进程空间内改变过优先级的进程占用CPU百分比。

id   列显示了cpu处在空闲状态的时间百分比。

wa 列显示了IO等待所占用的CPU时间的百分比。

     这里wa的参考值为30%,如果wa超过30%,说明IO等待严重,这可能是磁盘大量随机访问造成的,也可能磁盘或者磁盘访问控制器的带宽瓶颈造成的(主要是块操作)。   //这个wa和vmstat中的wa是相同含义

hi   硬件中断占用CPU

si   软件中断占用CPU

st  丢失时间占用CPU

在后台服务器开发中需要关注us,sy,id,wa等常用指标。

更多:http://blog.163.com/xychenbaihu@yeah/blog/static/1322296552012017105732762/
分页: 29/40 第一页 上页 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 下页 最后页 [ 显示模式: 摘要 | 列表 ]