本文作者奇舞团前端开发工程师魏川凯。
本文转载自奇舞周刊
前言
A*搜索算法于1968年,由斯坦福研究院的Peter Hart,Nils Nilsson以及Bertram Raphael首次发表。
原理
A*搜索算法综合了最佳优先搜索算法(Best-first search)和Dijkstra算法的优点,通过一个成本估算函数来指导路径的搜索过程:$$
f(n) = g(n) + h(n)
$$
$n$:任意一个顶点
- $g(n)$:表示起点到任意顶点$n$的实际成本
- $h(n)$:是一种启发式函数,表示从任意顶点$n$到目标点的估算成本
下面为A*搜索算法的主流程代码:
// heuristicFunction,启发式函数
function aStar(start, goal, heuristicFunction) {
// 带估算的节点集合,为一个优先队列,每次取f(n)值最小的节点
const openSet = new PriorityQueue()
openSet.add(start) // 初始只有起点
const closeSet = [] // 已被估算过的节点集合
const gScore = { [start]: 0 } // g(n)值
const hScore = { [start]: heuristicFunction(start, goal) } // h(n)值
const fScore = { [start]: hScore[start] } // f(n)值
const cameFrom = {} // 记录当前节点的上一个节点
while(!openSet.isEmpty()) {
const current = openSet.pollFirst()
if(current === goal)
return reconstructPath(cameFrom, goal) // 当前节点为目标点,返回最佳路径
close_set.add(current)
// neighborNodes,取出current节点的邻域节点
for(let neighbor of neighborNodes(current)) {
if(close_set.includes(neighbor))
continue
// 从起点到neighor的距离
const tentativeGScore = gScore[current] + distance(neighbor, current)
if(!openSet.includes(neighbor) || tentativeGScore < gScore[neighbor]) {
// 记录neighbor节点的前一个节点
cameFrom[neighbor] = current
gScore[y] = tentativeGScore
hScore[y] = heuristicFunction(neighbor, goal)
fScore[y] = gScore[neighbor] + hScore[neighbor]
openSet.add(neighbor)
}
}
}
}
function reconstructPath(cameFrom, current) {
const bestPath = [current]
while(cameFrom[current]) {
current = cameFrom[current]
bestPath.unshift(current)
}
return bestPath
}
启发式函数
- 当启发式函数$h(n)$始终为0时,则将由从起点到任意顶点n的距离$g(n)$决定,此时A*算法将等效于Dijkstra算法。此时,可以考虑初始化一个值非常大的全局计数器C,每次处理一个节点时,将C分配给它所有领域节点。每次分配后,再将计数器C减一。节点被发现的越早,其$h(x)$值就越高。从而实现深度优先遍历。
- 当$h(n)$始终小于等于顶点n到目标点的实际成本,则A*算法一定可以求出最优解。但是当$h(n)$的值越小,算法需要计算的节点越多,算法效率越低。
- 当$h(n)$完全等于顶点n到目标点的实际成本,则A*算法将以较快的速度找到最优解。可惜的是,并非所有场景下都能做到这一点。因为在没有达到目标点之前,我们很难确切算出距离目标点还有多远。
- 当$h(n)$大于顶点n到目标点的实际成本,则A*不能保证找到一条最短路径,但它运行得更快。
- 当从起点到任意顶点n的实际成本$g(n)$等于0,或者$h(n)$值远远大于$g(n)$时,则只有h(n)起作用,此时算法演变成最佳优先搜索算法,速度最快,但可能得不出最优解。
可以看出,通过调节$h(n)$可以控制算法的精度和速度。一些情况下,我们未必要找到最佳路径,而是要高效的找出差不多好的路径,所以需要权衡,这个我们后面在讲。
二维网格地图中的启发式函数
- 如果允许朝四个方向移动,即上下左右,则可以使用曼哈顿距离($L_1\,norm$)
- 如果允许朝八个方向移动,即增加了对角线方向,则可以使用切比雪夫距离($L_\infty\,norm$)
如果允许朝任何方向移动,则可以使用欧几里得距离($L_2\,norm$)
曼哈顿距离
曼哈顿距离(Manhattan distance)是指两点所形成的线段对坐标轴产生的投影的长度总和。在向量空间中又称为L1范数。在直角坐标系下,两点之间的曼哈顿距离为:$$
d(x, y) = |x_1 - x_2| + |y_1 - y_2|
$$
因此曼哈顿距离的启发式函数为:$$
h(n) = D \times (|n.x - goal.x| + |n.y - goal.y|)
$$
其中D是节点移动的单位成本,一般是一个常数。
切比雪夫距离
切比雪夫距离(Chebyshev distance)是指二个点之间的距离定义为其各座标数值差的最大值。在向量空间中又称为L∞范数。在直角坐标系下,两点之间的切比雪夫距离为:$$
d(x, y) = max(|x_1 - x_2|, |y_1 - y_2|)
$$
因此切比雪夫距离的启发式函数为:$$
h(n) = D \times max(|n.x - goal.x|, |n.y - goal.y|)
$$
上面的函数前提是直线和对角线的移动成本都是D,如果对角线的移动成本不是D,则上面的函数是不准确的,那就需要一个更准确的函数:$$
h(n) = D \times (|n.x - goal.x| + |n.y - goal.y|) + \sqrt{2} D min(|n.x - goal.x|, |n.y - goal.y|)
$$
欧几里得距离
欧几里得距离(Euclidean distance)是指两点之间的直线距离。在向量空间中又称为L2范数。在直角坐标系下,两点之间的欧几里得距离为:$$
d(x,y)=\sqrt{(x_2 - x_1)^2+(y_2 - y_1)^2}
$$
因此欧几里得距离的启发式函数为:$$
h(n) = D \times \sqrt{(n.x - goal.x)^2+(n.y - goal.y)^2}
$$
松弛
- 静态加权。假设$h(n)$是一个启发式函数,我们可以用$h_w(n = ε \times h(n), ε > 1)$作为加权后的启发式函数,由于扩展了较少的节点,因此速度加快,找到的路径的误差最多是最小路径的ε倍。
-
动态加权。通过动态改变权重大小,从而控制搜索的速度,可以使用如下的启发式函数:$$f(n)=g(n)+(1+εω(n))h(n)$$其中
w(n)是计算权重的函数,当前搜索深度较小时,会获得较大的权重,加快搜索速度:$$ ω(n) = \begin{cases} 1 - \frac{d(n)}{N} & d(n) \leq N \ 0 & otherwise \end{cases} $$
- $d(n)$是搜索深度,$N$是最终路径的预期长度,ε是允许的误差范围。
- 通过偏好离目标点最近的节点来加快深度遍历,以提高速度。使用如下的启发式函数:
$$
f\alpha(n)=(1+w\alpha(n))f(n)
其中
-
wα(n)是计算权重的函数
$$ w_\alpha(n)=\begin{cases} \lambda & g(\pi(n)) \leq g(\tilde{n}) \ \Lambda & otherwise \end{cases} $$
λ和Λ是$\lambda \leq \Lambda$的常量,$π(n)$是n的父节点,而ñ是要扩展的节点。
-
参考连接
https://en.wikipedia.org/wiki/A*_search_algorithm
http://theory.stanford.edu/~amitp/GameProgramming/AStarComparison.html
关注我们
界世的你当不
只做你的肩膀
无
360官方技术公众号
技术干货|一手资讯|精彩活动
空·