对Protein序列进行InterPro注释

使用EBI的InterPro数据库,能对蛋白序列通过结构域方法进行基因家族分类注释。InterPro数据库整合了13个基因家族、结构域和功能位点的数据库,包括Pfam和CDD等。此外,InterPro也整合了跨膜区和信号肽等结构分析方法。

1. 使用EBI提供的InterPro网页工具对少量蛋白序列进行注释。

在网页工具中可以输入多条序列进行InterPro注释,但要求一次提交蛋白序列的氨基酸总数量不超过40,000。按正常一个蛋白序列的氨基酸长度约为500aa算,一次性提交最大的蛋白序列数量约为80条。因此,要对基因组层面约上万个基因进行InterPro注释,则采用命令行的方式进行计算。

2. 使用EBI提供的InterProScan 5网页API服务进行批量化InterPro注释

EBI官网提供了iprscan5.pliprscan5.py程序,可以用于将本地计算机上的fasta序列文件提交到InterProScan 5网页API服务,进行注释后,将结果返回给本地。此时,不需要在本地计算机上进行计算,只需要联网提交数据,接受结果即可。然后,可以自己编写程序对全基因组的蛋白序列进行分割,再并行化化调用iprscan5.pl程序将数据上传并进行注释。需要值得注意的是,并行化提交的任务数量要少于30。

需要注意的是,iprscan5.pl或iprscan5.py程序进行分析不再能得到svg和html结果了。若需要这两种结果,则需要本地化部署InterPro数据库和InterProScan软件进行分析。

3. 本地化部署InterPro数据库和InterProScan软件进行InterPro注释

下载InterPro数据库和InterProScan软件。当前最新版本为InterProScan 5.51-85.0,即InterProScan软件版本为5.51,数据库版本为85.0。

lftp -e 'pget -n 20 http://ftp.ebi.ac.uk/pub/software/unix/iprscan/5/5.51-85.0/interproscan-5.51-85.0-64-bit.tar.gz; exit'

使用InterProScan对全基因组蛋白序列进行注释分析:

使用Intel的mkl软件计算CPU的浮点数计算性能

Intel的mkl软件能使用linpack计算CPU浮点数性能。

wget https://software.intel.com/content/dam/develop/external/us/en/documents/l_mklb_p_2021.1.1.001.tgz
tar zxf l_mklb_p_2021.1.1.001.tgz
cd l_mklb_p_2021.1.1.001/benchmarks_2021.1.1/linux/mkl/benchmarks/linpack
./runme_xeon64

以上操作,程序会其实是调用了linpack-xtreme计算FLOPS。对一些服务器的FLOPS测试结果如下:

服务器型号         CPU型号数量        整体FLOPS           系统
惠普DL580G9       E7-8890 V3 * 4    1084.3483 GFlops    CentOS7
华为RH5885H V3    E7-4890 V2 * 4    838.5290 GFlops     CentOS7
华为RH5885H V3    E7-4890 V2 * 4    514.2317 GFlops     CentOS7
华为RH5885H V3    E7-4890 V2 * 4    281.1997 GFlops     CentOS8
戴尔R910          E7-8870 * 4       304.9025 GFlops     CentOS8
惠普DL980G7       E7-4870 * 8       586.0235 GFlops     CentOS8
戴尔T620          E5-2620 * 2       190.9405 GFlops     CentOS7

使用HPL软件测试服务器浮点数计算性能

HPL(High-Performance Linpack)软件使用Linpack算法来测试计算机双精度浮点数计算性能。

安装HPL软件

# 安装mpich
wget http://www.mpich.org/static/downloads/3.3/mpich-3.3.tar.gz -P ~/software/
tar zxf ~/software/mpich-3.3.tar.gz
cd mpich-3.3
./configure --prefix=/opt/sysoft/mpich-3.3 && make -j 4 && make install
cd .. && rm -rf mpich-3.3
echo 'export PKG_CONFIG_PATH=/opt/sysoft/mpich-3.3/lib/pkgconfig:$PKG_CONFIG_PATH' > ~/.bashrc.mpich
echo 'export LD_LIBRARY_PATH=/opt/sysoft/mpich-3.3/lib:$LD_LIBRARY_PATH' >> ~/.bashrc.mpich
echo 'export C_INCLUDE_PATH=/opt/sysoft/mpich-3.3/include:$C_INCLUDE_PATH' >> ~/.bashrc.mpich
echo 'export PATH=/opt/sysoft/mpich-3.3/bin/:$PATH' >> ~/.bashrc.mpich
source ~/.bashrc.mpich

# 安装openblas
sudo yum -y install openblas openblas-devel
# 若是CentOS8系统
sudo dnf --enablerepo=PowerTools install gcc-fortran openblas openblas-devel

# 安装hpl
wget http://www.netlib.org/benchmark/hpl/hpl-2.3.tar.gz
tar zxf hpl-2.3.tar.gz
cd hpl-2.3/
source ~/.bashrc.mpich
./configure --prefix=/opt/sysoft/hpl-2.3
make -j 8
make install
cd ../ && rm -rf hpl-2.3

在当前目录下生成HPL的配置文件HPL.dat,该配置文件适合72核心的单节点服务器。

HPLinpack benchmark input file
Innovative Computing Laboratory, University of Tennessee
HPL.out      output file name (if any)
6            device out (6=stdout,7=stderr,file)
1            # of problems sizes (N)
82944        Ns
1            # of NBs
144          NBs
0            PMAP process mapping (0=Row-,1=Column-major)
1            # of process grids (P x Q)
8            Ps
9            Qs
16.0         threshold
2            # of panel fact
2 1 0        PFACTs (0=left, 1=Crout, 2=Right)
1            # of recursive stopping criterium
2 4          NBMINs (>= 1)
1            # of panels in recursion
2            NDIVs
1            # of recursive panel fact.
1 0 2        RFACTs (0=left, 1=Crout, 2=Right)
1            # of broadcast
0            BCASTs (0=1rg,1=1rM,2=2rg,3=2rM,4=Lng,5=LnM)
1            # of lookahead depth
0            DEPTHs (>=0)
2            SWAP (0=bin-exch,1=long,2=mix)
64           swapping threshold
0            L1 in (0=transposed,1=no-transposed) form
0            U  in (0=transposed,1=no-transposed) form
1            Equilibration (0=no,1=yes)
8            memory alignment in double (> 0)

配置文件中的重要参数如下:

1        # of problems sizes (N)
    设置程序运行时使用的 N 值的个数。
82944    Ns
    设置程序运行时使用的 N 值。上一个参数的值有多大,此处则输入对应个数的 N 值。N 值为Linpack进行浮点运算的问题规模。求解问题规模为N时,Linpack浮点运算次数 = 2 / 3 * N^3 - 2 * N^2。再测得系统计算所消耗的时间T,即可算出浮点运算每秒次数FLOPS值。需注意内存和计算时间消耗随该值增大呈指数级增加,内存消耗=N*N*8。比如该参数值为20000时消耗3.2GB内存,设置为30000时消耗约7.2GB内存。在HPL软件进行计算时,该值设置越大,有效计算所占的比例也越大,其结果FLOPS值越大。此外,该值推荐设置为 P * Q * NB 的整数倍。
1        # of NBs
    设置程序运行时使用的 NB 值的个数。
144      NBs
    设置数据分块数量,有利于并行化计算。上一个参数的值有多大,此处则输入对应个数的 NB 值。推荐设置为 P * Q 的整数倍。要计算的问题规模比较大,将这些计算均匀分配给各个CPU核心。
1        # of process grids (P x Q)
    设置程序运行时使用的 P x Q 的个数。
8        Ps
9        Qs
    设置并行化和多线程的CPU使用个数。尽可能让P和Q相等,并使两者的乘积为服务器的CPU总核心数,使P <= Q,也最好使P值为2的n次方。上一个参数设置有多大,则此处输入对应个数的P和Q值。
2       # of panel fact
2 1 0 PFACTs (0=left, 1=Crout, 2=Right)
    设置panel fact的值个数。上面设置了使用2种panel fact参数,下一个参数虽然有3个值,于是HPL运行时选取使用前两个值。
    后面还有几个这样的参数设置。但是对结果影响不大。只有前面的N, NB, P 和 Q 对结果影响较大。特别是 N 值影响最大。

运行HPL程序进行FLOPS计算

/opt/sysoft/mpich-3.3/bin/mpirun -np 72 /opt/sysoft/hpl-2.3/bin/xhpl

    程序运行需要当前目录下存在HPL.date配置文件。

程序运行的注意事项:

(1)mpirun的-np参数值是服务器的CPU总核心数。对应着参数文件种 P * Q 的值。要求 -np 参数的值 >= P * Q,否则程序报错。
(2)HPL若使用超线程后总CPU线程数来进行计算,其FLOPS值更低,比用总核心数低约20%。
(3)若可以的话,设置不同的参数来让HPL程序运行多次,取其最高值(峰值)作为服务的FLOPS计算性能。
(4)配置以 # 开始的参数用于设置多个值,程序有7个参数可以设置不同的多个值,于是排列组合后可以运行很多次,选择最大值作为FLOPS计算峰值。
(5)当设置多种参数值,会很消耗计算时间,且其结果都相差不大,则可以考虑节约时间,不用设置太多的参数值。
(6)程序第一个运行种CPU刚唤醒,导致其有效计算所占的比例要小些,其结果会差些,特别是N值设置不够大时更明显,推荐至少有2次运行。
(7)设置稍大的 N 值,让每次Linpack程序运行时间长度超过200秒,则获得的结果更准确些。若运行时间太长,则感觉很费时间。

程序结果如下。按上面的配置文件,设置了2个不同的参数运行。第一次运行的结果一般较低,直接看第二次的结果作为服务器的计算性能:1297 Gflops。

================================================================================
T/V                N    NB     P     Q               Time                 Gflops
--------------------------------------------------------------------------------
WR00C2R2       82944   144     8     9             311.44             1.2215e+03
HPL_pdgesv() start time Sat Apr 10 06:32:55 2021

HPL_pdgesv() end time   Sat Apr 10 06:38:06 2021

--------------------------------------------------------------------------------
||Ax-b||_oo/(eps*(||A||_oo*||x||_oo+||b||_oo)*N)=   1.11497782e-03 ...... PASSED
================================================================================
T/V                N    NB     P     Q               Time                 Gflops
--------------------------------------------------------------------------------
WR00C2C2       82944   144     8     9             293.31             1.2970e+03
HPL_pdgesv() start time Sat Apr 10 06:38:15 2021

HPL_pdgesv() end time   Sat Apr 10 06:43:09 2021

--------------------------------------------------------------------------------
||Ax-b||_oo/(eps*(||A||_oo*||x||_oo+||b||_oo)*N)=   1.07067674e-03 ...... PASSED
================================================================================

使用HPL对一些服务器的FLOPS测试结果如下:

服务器型号        CPU型号数量        整体FLOPS          系统
惠普DL580G9      E7-8890 V3 * 4    1297.0 GFlops      CentOS7
华为RH5885H V3   E7-4890 V2 * 4    904.68 GFlops      CentOS7
华为RH5885H V3   E7-4890 V2 * 4    614.23 GFlops      CentOS8
惠普DL980G7      E7-4870 * 4       339.53 GFlops      CentOS8

使用linpack-xtreme-1.1.5软件测试CPU的浮点数计算性能

对服务器或电脑的计算性能进行时描述,一般使用FLOPS或MIPS为单位进行量化。MIPS表示每秒执行的百万级的机器语言指令数。CPU的主频越高,MIPS线性增加。由于不同时代的CPU主频可能一致,但执行指令的速度差异极大,因此MIPS无法衡量CPU实际的计算性能。FLOPS表示每秒的浮点数运算次数,能准备表述计算机的性能。

Linpack(Liner system package)是目前最流行的用于测试高性能计算机系统浮点性能的方法。它通过高斯消元法求解N元一次稠密线性代数方程组的测试,评价高性能计算机的浮点性能。

使用linpack-xtreme-1.1.5软件可以在Linux或Windows系统下测试CPU的FLOPS。在Linux系统中,解压缩linpack-xtreme-1.1.5软件后,使用其中的AuthenticAMD命令即可测试服务器的FLOPS。

直接运行AuthenticAMD,会使用全部的线程进行计算,其测试的结果会偏小。推荐使用1个线程运行单个AuthenticAMD命令,并行化运行与CPU核心数相同个数的AuthenticAMD命令,从而获得服务器整体的FLOPS性能。

于是编写程序test_FLOPS_by_linpack-xtreme.pl来并行化调用AuthenticAMD测试服务器的FLOPS性能。

使用linpack-xtreme-1.1.5软件对4颗E7-4890 V2 CPU (60核心120线程)的服务器进行测试,结果为:

CPU型号:Intel(R) Xeon(R) CPU E7-4890 v2 @ 2.80GHz

时间消耗:当使用60个CPU线程并行计算时,单个线程消耗的时间为 67.765 ~ 70.942, 68.279 (均值) / 68.245 68.279 (中位数)。
CPU性能:当使用60个CPU线程并行计算时,单个线程性能为 9.4002 ~ 9.8409, 9.767 (均值) / 9.7717 (中位数)。
CPU性能:当使用60个CPU线程并行计算时,所有线程总性能为 586.0235 GFlops。

时间消耗:当使用1个CPU线程并行计算时,单个线程消耗的时间为 29.587 ~ 29.587, 29.587 (均值) / 29.587 29.587 (中位数)。
CPU性能:当使用1个CPU线程并行计算时,单个线程性能为 22.5389 ~ 22.5389, 22.5389 (均值) / 22.5389 (中位数)。
CPU性能:当使用1个CPU线程并行计算时,所有线程总性能为 22.5389 GFlops。

时间消耗:当使用120个CPU线程并行计算时,单个线程消耗的时间为 189.257 ~ 278.805, 236.683 (均值) / 230.219 236.683 (中位数)。
CPU性能:当使用120个CPU线程并行计算时,单个线程性能为 2.3919 ~ 3.5236, 2.847 (均值) / 2.8967 (中位数)。
CPU性能:当使用120个CPU线程并行计算时,所有线程总性能为 341.6415 GFlops。

使用linpack-xtreme-1.1.5软件进行FLOPS计算的结果在一定程度上准确。在CPU最大核心数内进行测试时,使用的核心数越多,FLOPS结果越大,基本呈线性增加。此外,也在一定程度上不太准确。表现在:(1)服务器开启超线程,并行化数为CPU核心数的FLOPS值最大,而并行化为CPU线程数的FLOPS结果降低太多。(2)当使用单线程单任务进行测试时,FLOPS值非常高,是满负荷的两倍还多。我个人觉得单线程时CPU超频性能不会强这么多。(3)我使用8路服务器DL980G7(4颗E7-4870)进行测试时,其整体FLOPS值比4路服务器DL580G7(4颗E7-4870)的FLOPS值还低。这是很不正常的。所以,linpack-xtreme-1.1.5软件进行测试时,多物理CPU同时进行测试,会极大影响测试结果。linpack-xtreme-1.1.5软件可能仅适合单颗CPU的FLOPS计算。(4)在不同版本的CentOS系统下,或在相同系统相同型号而不同物理机器上测试结果差异较大。

最后,使用linpack-xtreme-1.1.5软件对一些服务器的FLOPS测试结果如下:

服务器型号         CPU型号数量        整体FLOPS           系统
惠普DL580G9       E7-8890 V3 * 4    1329.6549 GFlops    CentOS7
华为RH5885H V3    E7-4890 V2 * 4    1076.3384 GFlops    CentOS7
华为RH5885H V3    E7-4890 V2 * 4    814.6641 GFlops     CentOS7
华为RH5885H V3    E7-4890 V2 * 4    586.0235 GFlops     CentOS8
戴尔R910          E7-8870 * 4       346.8207 GFlops     CentOS8
惠普DL980G7       E7-4870 * 8       252.3831 GFlops     CentOS8
戴尔T620          E5-2620 * 2       198.8307 GFlops     CentOS7

从诺和致源云交付平台下载数据

诺和致源构建了自己的云交付平台,在Linux服务器中直接使用其公司提供的下载程序直接下载文件。

首先,下载并安装软件lnd

wget http://data-deliver.novogene.com/linuxnd.zip -P /media/software_packages/
unzip /media/software_packages/linuxnd.zip -d /opt/biosoft/
chmod 755 /opt/biosoft/linuxnd/lnd

根据邮件中的用户名、密码和文件路径下载数据

# 首先,使用用户名和密码登陆到云交付平台
/opt/biosoft/linuxnd/lnd login -u X101SC20110715-Z01-J002 -p fe3eg21z

# 列出根目录信息
/opt/biosoft/linuxnd/lnd list
/opt/biosoft/linuxnd/lnd list oss://CP2018091209442

# 下载文件夹
/opt/biosoft/linuxnd/lnd cp -d oss://CP2018091209442/H101SC20110715/RSCD0408/X101SC20110715-Z01/X101SC20110715-Z01-J002 ./

武汉带娃游玩长见识的地方

‌1. 武汉科学技术馆。

门票免费。

开馆时间: 周三至周日 9:00—16:30 。闭馆时间: 周一至周二(国家法定节假日期间另行通告)。

2. 湖北省博物馆

实行预约免费参观,进入其网上预约系统,填写姓名、身份证号码和联系人手机号进行预约。

开放时间:周二至周日09:00-17:00(16:00后停止入馆);周一闭馆(法定节假日除外)。

镇馆之宝:曾侯乙编钟、越王勾践剑、曾侯乙尊盘、云梦睡虎地秦简、虎座鸟架鼓、郧县人头骨化石。

3. 武汉博物馆

通过二维码关注“武汉博物馆”微信公众号,进入武汉博物馆微信公众号后,点击右下角“参观预约”,填写游客信息,预约后免费参观。

开馆时间:周二至周日09:00-17:00(16:00后停止入馆);周一闭馆(法定节假日除外)。

镇馆之宝:凤纹方罍(读作“léi”)、青花“四爱图”梅瓶、《江汉揽胜图》和“乾隆”款青玉双凤交颈壶。

4. 长江文明馆

免费参观。收费项目如下:体验厅《梦幻长江》、引进外单位文物的临时展览、展陈内容讲解、语音导览租用。

开馆时间:每周二至周日09:00-17:00(16:30后停止入馆);每周一闭馆。

5. 武汉市中山舰博物馆

通过官方微信公众号实名预约免费参观,未办理实体身份证儿童填写户口本上的身份证号码进行预约。已预约观众务必携带本人二代身份证,未携带证件谢绝入馆。一名成人限带一名1.4米以下已预约儿童,未办理实体身份证的儿童凭预约订单经工作人员核验,与家长一同入馆。

开放时间:周二至周日 09:00-17:00(16:00后停止入馆),周一闭馆(国家法定节假日除外)。

6. 武汉大禹文化博物馆

武汉大禹文化博物馆常年向观众免费开放。观众至大门口登记入场参观。

开放时间9:00-17:00(16:30停止入场),每周一闭馆,每周四15:00闭馆展厅维护(逢国家法定节假日全天开放),每年除夕闭馆一天。

7. 盘龙城遗址博物馆

关注盘龙城遗址博物院官方微信公众号, 在微信号下方点击“服务”栏,选择“预约服务”,按照提示预约即可。预约成功后,系统会生成预约二维码,游客到博物馆门口出示预约二维码即可参观。

开馆时间:周二至周日09:00-17:00(16:00后停止入馆);周一闭馆(法定节假日除外)。

8. 湖北警察史博物馆

湖北警察史博物馆的所有展览免费向公众开放。酗酒者、衣冠不整者以及无民事行为能力或限制民事行为能力者无监护人陪伴的,谢绝入馆。

开馆时间:周一到周五上午8:30-11:30;下午2:30-4:30(下午4点以后停止入馆)。除工作日外,节假日及双休日均需预约参观。

9. 武汉美术馆

武汉美术馆的展览及活动均免费向观众开放。

开馆时间:周二至周日09:00-17:00(16:00后停止入馆);周一闭馆(法定节假日除外)。

10. 中国地质大学逸夫博物馆

门票成人40元/人/次。

开馆时间:冬季(10月-4月) 上午8:00-12:00 下午14:00-17:00;夏季(5月-9月) 上午8:00-12:00 下午14:30-17:30;双休节假日 9:00-17:00。

11. 湖北经济学院博物馆钱币陈列馆

门票免费。可以添加微信公众号“湖北经济学院博物馆”。

开放时间周一、三、五14:00-16:20。

12. ‌中华360行雕塑博物馆

在武汉昙华林101号,有一家中华三百六十行雕塑博物馆,陈列着“中华三百六十行”大型群雕,生动复原了清末民初各行各业呈现的市井众象。这是一幢3层小楼,一楼是雕塑的主创团队三汉雕塑工作室,二、三楼则专门用来展览。

Windows系统中修改文件权限

我在windows系统中安装了cygwin软件,在C盘下生成了cygwin64文件夹。由于该文件夹的拥有者和权限问题,导致用Administrator无法删除该文件夹。此时,需要修改文件夹的拥有者和权限后,才能删除cygwin64文件夹。

1. 使用windows窗口界面修改权限

首先,修改拥有者权限:登录到Administrator用户,右击要删除的文件或文件夹——属性——安全——高级——更改(蓝色字体)——点击输入框”输入要选择的对象名称”——输入用户名”Administrator”——确定——确定。

只有修改了拥有者权限后,才能对新增加的拥有者设置读写权限:右击要删除的文件或文件夹——属性——安全——高级——添加——选择主题(蓝色字体)——点击输入框”输入要选择的对象名称”——输入用户名”Administrator”——确定——勾选完全控制——确定——确定——确定。

进行以上两步操作后,则可以删除目标文件夹下的所有文件。但是不能删除目标文件夹下的子文件夹。这点非常坑。由于cygwin64文件夹下有很多层目录,可能要对数千个文件夹进行上述操作,才能删除所有文件和文件夹,通过windows窗口界面基本不可能实现了。

2. 通过命令行修改权限

windows系统中按windows+x键,点击Windows PowerShell打开终端,输入两个命令分别对文件夹修改拥有者和读写权限:

takeown.exe /F C:\cygwin64\ /A /R /D Y
    /F <strint>  参数后接一个路径,用于对指定文件或文件夹进行拥有者权限设置。
    /A  将所有权给予管理员组,而不是当前用户。
    /R  递归,将拥有者权限设置赋予子目录及其文件。
    /D <strint>  设置其值为Y后,表示使用/R进行递归时所有问询值都为Yes。 

icacls.exe C:\cygwin64\ /grant Administrator:F /T
    /grant <string>  授予指定用户相应的权限。其值格式为“用户ID:权限符号”,其中F表示所有权限。
    /T  递归,将权限赋予子目录及其文件。

进行以上操作后,则可以正常删除C:\cygwin64\文件夹了。

武汉新车上牌经历

2020年1月11日,星期一,这天我在湖北省武汉市给一辆品牌为理想one的新车上牌照,步骤如下。

首先,到位于湖北省武汉市洪山区旭东小路汪家墩小区的车辆购置税办税服务厅办理购置税纳税事宜。由于是属于新能源牌照汽车,免缴购置税。下午两点一刻左右,到该办税大厅后,到离门口约3m的机器上,在工作人员的帮助下,扫描车辆合格证,验证车辆车架号、发动机号和营业执照(我是以企业名义购车,若是个人的话,则是身份证信息)等信息。确认无误后,打印出电子版纳税证明(后续办理车牌时不需要出具该凭证,因为系统联网识别了)即完毕。整个过程办完约2分钟,花费0元。

第二步,到位于湖北省武汉市武昌区友谊大道与楚汉路交叉口附近的武汉市交管局车管所办理验车事宜。开车进入车管所后,沿指示到验车场地,此时约下午三点左右(从办税大厅到车管所虽然很近,但绕了不少路,欲找地方洗车花费了不少时间)。在进入场地前的通道处窗口出示购车发票、车辆合格证和营业执照领取验车单。然后排队等候约15分钟后(排队车辆不算多,前面约4辆车),到我的车进行验车手续。将理想one公司给的车架后拓印号贴到验车单上并交给验车员。验车员查验发动机舱的编号信息和前挡风玻璃上的编号信息;个人将三脚架装好放到车辆尾部正下方;验车员对车辆拍照。最后验车员检测合格后,在验车单上盖章并交给我。然后开车到车管所停车场。验车过程约3分钟。此外,由于没有洗车,车辆很脏也不影响正常验车,就是最后行驶证上的车辆照片明显看到很脏,有强迫症的还请注意提前洗车。

第三步,从正门进入车管所大厅并办理牌照。直接到靠门口的前台出示购车发票、车辆合格证、营业执照,前台会给排队号码纸条。按照号码找到对应的窗口进行上牌(这次是下午三点半左右人少没有排队),提交车辆合格证、购车发票、营业执照、电子保单打印件和办理人身份证。由于是公司购车,需要填写一份办理人委托书并盖公章。然后缴纳60元上牌费(支付宝、微信或银行卡都可以缴纳)。办理结束后,得到一张有条形码的A4打印纸,用于到机器上扫码选号。有3~5台选号机,也没有排队,直接开始选好。点击开始选号后,给随机50个号码,必须在180秒内选号完毕。注意没有第二次选号机会。

第四步,选号完毕去二楼领取车辆行驶证并办理邮寄车牌服务。需要在车管所二楼大屏幕前等待,当看到提示领取车辆行驶证时,到对应窗口领取行驶证和临时牌照。然后到旁边的台柱上扫码办理车牌邮寄。缴纳20元邮寄费即可邮寄到本市。至此,到下午四点一刻左右,办理车辆牌照结束。

其它办牌经验:大部分人觉得办牌照比较麻烦,会考虑额外花一些前找4S店人员搞定,这样会节约时间。若是当天买车,当天能这样办好是最好的。我当时交车时已经到下午三点半了,再介绍个车辆并在理想one交付中心直接缴纳保险后都过四点了。然后理想one公司送了临时牌照,到办理临牌地点都已经四点半了。该办牌地点虽然能400元全套办牌搞定,但是验车员提前下班走了,当天就没法办正式牌照。后来有一天过去,排队人太多,也没办成。但不管怎么样,去办牌,都得开车到某地点,花时间验车上牌。预计自行到车管所上牌和到专门地点一套全部快速搞定,花费的时间其实差不多的。因为该专门地点就是多了个车辆购置税交税功能而已,而该步骤其实是很快的,才花费3分钟而已。自行上牌好处是只花费80元,省了至少320元,但需要花精力自行找办税地点和车管所地点。

SGE集群队列状态并清除队列错误状态

SGE集群可能出现独列错误状态。此时,使用命令 qstat -f 检测集群队列队列状态。最后一列stats若为空,则表示队列状态正常,可以用于任务提交。其它状态解释如下:

a: 负载超限了,开启警报alarm。
A: 超限暂替,开启警报Alarm。
E: 队列有错误,不能提供任务提交服务了。
au:主机和SGE系统连接中断,此时负载状态为-NA-。需要重启相应服务器的sgeexecd命令。

当出现状态 E 时,则需要使用root用户在对应的主机中重启sge计算服务:

/opt/sysoft/sge/default/common/sgeexecd restart

然后,清除队列中的错误信息:

qmod -c all.q

服务器远程强制连接并重启

在服务器使用过程中,我遇到这样一种情况:服务器将网络上的文件系统挂载到了 /home 目录;当系统出现问题导致 /home 没有响应时,导致了 /home 目录下的普通用户无法登陆。

解决方法我于是使用了备用的不在 /home 目录下的其它普通用户登陆。此时则可以登陆到服务器中了。此时,可能遇到一种情况,能登陆到服务器,但是不会返还命令提示符。这可能依然是 /home 目录没有响应,而很多依赖该分区下数据运行的程序异常运行导致的。此时,按如下方式可以登陆到服务器中:

ssh -t chenlianfu@xx.xx.xx.xx "cd /; bash"

由于挂载的 /home 分区没有响应。此时,使用正常的重启命令,极可能关机失败,从而无法再次连接服务器。因为依赖 /home 分区数据运行的程序无法强行杀死导致系统无法关机。则需要直接通过硬件关机再开机。若无法直接接触服务器,则使用IPMI方法实现硬件上的强制关机或重启:

# 加载 ipmi 驱动,确认服务器支持IPMI
sudo modprobe ipmi_msghandler ipmi_devintf ipmi_si
sudo ls -l /dev/ipmi*

# 数显按照 ipmitool 软件
sudo yum reinstall ipmitool
# 需要值得注意的是:在CentOS系统上,重启系统后ipmitool命令失效了。每次重启系统后,需要重新安装ipmitool才能正常使用。

# 再使用 ipmitool 命令实现应硬件上强制重启
sudo ipmitool power reset