实现从服务器A机192.168.18.137 SSH直接登入到B机192.168.18.120上
1、A主机生成公、私钥证书:
【root@A ~】#ssh-keygen -t rsa #生成公、秘钥证书,一直回车
【root@A .ssh】# cd ~/.ssh #进入.ssh
2、将公钥id_rsa.pub传到B机上
【root@B~】 mkdir .ssh
【root@A .ssh】scp id_rsa.pub 192.168.18.120:$HOME/.ssh
#ip为B机IP,发送时需要输入B机登入密码
3、登入B机重命名公钥
【root@B~】 cd .ssh
【root@B .ssh】#mv id_rsa.pub authorized_keys(必须要这个名字)
4、测试执行
【root@A ~】#ssh 192.168.18.120 #登入B机
登入成功。
【root@B~】#ifconfig #验证是不是B机IP:192.168.18.120
5、ssh连接安全
/etc/ssh/sshd_config(服务器端配置文件)
/etc/ssh/ssh_config(客户端配置文件)
修改端口(默认22端口)
port端口(2个配置文件的端口修改要一样)
只使用密钥(取消密码验证):
修改/etc/ssh/sshd_config中的passwordAuthentication后面的yes改为no
只允许某个用户登录:
在/etc/ssh/sshd_config中加入:AllowUsers “用户名”
用ssh -p 端口 IP登录
登陆hadoop@60.29.255.205跳板机ssh hadoop@60.29.255.205
登陆hd1 [hadoop@CONTROL_TJHY_14-16 ~]$ ssh hd1
传输直接通过scp,先到跳板机,然后scp到hd1你的目录就可以 scp filename hadoop@60.29.255.205:~/lichengjin/ [hadoop@CONTROL_TJHY_14-16 ~]$ scpfilename hadoop@hd1:~/lichengjin/
从hd1上往本地传数据,先传到跳板机,然后再传到本地 scp -r hadoop@hd1:~/filename .
传目录要加上 -r, .表示当前目录 scp -r hadoop@60.29.255.205:~/filename .
退出当前连接: exit