广州黄埔网站建设,微信网站建设模板,网站建设 小白,湖北建设信息网官网有什么问题#xff0c;请尽情问博主#xff0c;QQ群796141573 前言。。。知识1.1 开头介绍1.2 22/80端口1.3 nmap1.4 IP地址1.5 开启靶机--网络模式1.6 信息收集(1) 查看源代码(2) 查看常见漏洞(3) 随便点一点\改一改 1.7 robots.txt。。。实战1.1 确定目标(1) 查看自己的ip地… 有什么问题请尽情问博主QQ群796141573 前言。。。知识1.1 开头介绍1.2 22/80端口1.3 nmap1.4 IP地址1.5 开启靶机--网络模式1.6 信息收集(1) 查看源代码(2) 查看常见漏洞(3) 随便点一点\改一改 1.7 robots.txt。。。实战1.1 确定目标(1) 查看自己的ip地址(2) 扫描同一网段的IP地址--nmap 1.2 信息收集(1) 扫描端口--nmap(2) 点击图片(3) 扫描目录--dirb(kali自带)(4) 查看robots.txt 前言
请务必跟着博主复现一遍 。。。知识
1.1 开头介绍
渗透测试渗透测试是通过模拟恶意黑客的攻击方法来评估计算机网络系统安全的一种评估方法.
1.如何打靶
渗透测试步骤1.确定目标 2.信息收集 3.发理漏洞 4.漏洞利用 5.权限提升
1.确定目标在所有的靶场中确定目标就是使用nmap进行ip扫描确定ip即为目标只是针对于我们现在这几十个场而言
其他实战中确定目标的方式包括nmap进行扫描但不局限于这个nmap.
2.常见的信息收集比如平常挖洞使用fofa天眼查ip域名等进行查找在我们这个靶场中比如信息收集包括查看源码使用工具dirb等
3.发现漏洞之前你们看到那些理论比如sql注入文件上传等或者找到相关的系统信息去网上找相关的exp这些都是为了拿到webshel
4.利用漏洞就是利用漏洞拿到webshell
5.权限提升就是所谓的提权因为一般进入拿到webshell后进入到服务器了都是低权限在接下来的靶中我们的目标都是拿到root权限
所以拿到webshell后是低权限用户这个时候我们需要一系列的方式进行提权最后拿到root权限即为结束。
Linux提权方式
以上就是整体的一个渗透测试思路渗透测试主打的就是一个思路以及熟练度你们刚开始接触你们今天的目的就是了解这个渗透测试
的流程以及思路然后后面还有很多靶场你们自己慢慢熟练不要担心理论不会你们之前所学的理论都只在这个漏洞利用这个步骤上
比如你们在打的过程中就算之前没有基础遇见了这个sql注入你不会那么这个时候你直接百度看sql注入相关的文章这个时候掌握sql注入遇到不会就百度
然后掌握比你单纯看理论然后后面就忘记好多了打到40个靶场左右基本能够课程上所有的理论都会涉及
如果你按照前面说的那些去执行基本理论你也全都记住了并且实操也是一个大佬了红队初没问题的1.2 ‘22’/80’端口 22端口ssh服务 用于通过命令行模式运程连接系统服务器 80端口网站服务 可以在浏览器中搜索到网站 1.3 nmap
扫描同一网段的IP地址
nmap -sP 192.168.0.0/24扫描端口
nmap -p- 192.168.0.1821.4 IP地址
A类IP地址
范围1.0.0.1到126.255.255.254
B类IP地址
范围128.0.0.1-191.255.255.254
C类IP地址
范围192.0.0.1-223.255.255.254192.168.0.0/24表示这个网段的IP范围是192.168.0.1-192.168.0.254 1.5 开启靶机–网络模式 网络模式用桥接模式就可以了 1.6 信息收集
(1) 查看源代码
(2) 查看常见漏洞
(3) 随便点一点\改一改
1.7 robots.txt
robots协议也称爬虫协议、爬虫规则等,是指网站可建立一个robots.txt文件来告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取
。。。实战
1.1 确定目标
(1) 查看自己的ip地址 ifconfig (2) 扫描同一网段的IP地址–nmap 未开启虚拟机时 nmap -sP 192.168.0.0/24 开启虚拟机时 nmap -sP 192.168.0.0/24 靶机得到确定目标192.168.0.1821.2 信息收集
(1) 扫描端口–nmap nmap -p- 192.168.0.182 三个端口: 22 80 1898访问’80’端口–没有可利用的
访问1898端口
下面是要对这个网站进行信息收集
(2) 点击图片
点击图片后发现后面多了一个传参
我们将1改为2,会发现两个地址访问会得到一段音频-usertiago从其中得知一个用户名为tiago
(3) 扫描目录–dirb(kali自带)
得到了一些网站路径其中有robots.txt
参考 (4) 查看robots.txt