本文实例讲述了android使用sensor感应器获取用户移动方向的方法。分享给大家供大家参考,具体如下:
今天继续给大家分享一下第二个重要的感应器,其实获取方向本应该很简单的事情,在前面文章中看到有个type_orientation 关键字,说明可以直接获取设备的移动方向,但是最新版的sdk加上了这么一句话“type_orientation this constant is deprecated. use sensormanager.getorientation() instead. ”也就是说,这种方式已经被取消,要开发者使用 sensormanager.getorientation()来获取原来的数据。
实际上,android获取方向是通过磁场感应器和加速度感应器共同获得的,至于具体的算法sdk已经封装好了。也就是说现在获取用户方向有两种方式,一是官方推荐的,通过sensormanager.getorientation()来获取,这个方法表面看似容易(那是因为你还没看到他的参数。。一会再说),但实际上需要用到两个感应器共同完成工作,特点是更加的准确。第二种方法非常简单,就像前一篇文章获取加速度一样,直接得到三个轴上的数据。
额,从难一些的介绍吧,因为毕竟第一种方法会是android未来的一个选择,第二种不知道什么时候就要成为历史了。
android给我们提供的方向数据是一个float型的数组,包含三个方向的值 如图
当你的手机水平放置时,被默认为静置状态,即xy角度均为0
values[0] 表示z轴的角度:方向角,我们平时判断的东西南北就是看这个数据的,经过我的实验,发现了一个有意思的事情,也就是说使用第一种方式获得方向(磁场+加速度)得到的数据范围是(-180~180),也就是说,0表示正北,90表示正东,180/-180表示正南,-90表示正西。而第二种方式(直接通过方向感应器)数据范围是(0~360)360/0表示正北,90表示正东,180表示正南,270表示正西。
values[1] 表示x轴的角度:俯仰角 即由静止状态开始,前后翻转
values[2] 表示y轴的角度:翻转角 即由静止状态开始,左右翻转
可见统一获取方向的方法是必须的,因为处理这些数据的算法可能针对第一种获取方式,那么当用在第二种方式时,移植性就不好了。
看下面的方法
public static float[] getorientation (float[] r, float[] values)
since: api level 3
computes the device's orientation based on the rotation matrix.
when it returns, the array values is filled with the result:
values[0]: azimuth, rotation around the z axis.
values[1]: pitch, rotation around the x axis.
values[2]: roll, rotation around the y axis.
the reference coordinate-system used is different from the world coordinate-system defined for the rotation matrix:
x is defined as the vector product y.z (it is tangential to the ground at the device's current location and roughly points west).
y is tangential to the ground at the device's current location and points towards the magnetic north pole.
z points towards the center of the earth and is perpendicular to the ground.
all three angles above are in radians and positive in the counter-clockwise direction.
通常我们并不需要获取这个函数的返回值,这个方法会根据参数r[]的数据填充values[]而后者就是我们想要的。
那么r表示什么呢?又将怎么获取呢?
r[] 是一个旋转矩阵,用来保存磁场和加速度的数据,大家可以理解未加工的方向数据吧
r通过下面的静态方法获取,这个方法也是用来填充r[]
public static boolean getrotationmatrix (float[] r, float[] i, float[] gravity, float[] geomagnetic)
解释以下参数:
第一个就是我们需要填充的r数组,大小是9
第二个是是一个转换矩阵,将磁场数据转换进实际的重力坐标中 一般默认情况下可以设置为null
第三个是一个大小为3的数组,表示从加速度感应器获取来的数据 在onsensorchanged中
第四个是一个大小为3的数组,表示从磁场感应器获取来的数据 在onsensorchanged中
好了基本逻辑就是这样的,下面给大家演示一个简单的测试方向的例子,可以时刻监听用户的方向
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
|
/*
* @author octobershiner
* 2011 07 28
* se.hit
* 一个演示通过磁场和加速度两个感应器获取方向数据的例子
* */
package uni.sensor;
import android.app.activity;
import android.content.context;
import android.hardware.sensor;
import android.hardware.sensorevent;
import android.hardware.sensoreventlistener;
import android.hardware.sensormanager;
import android.os.bundle;
import android.util.log;
public class orientationactivity extends activity{
private sensormanager sm;
//需要两个sensor
private sensor asensor;
private sensor msensor;
float [] accelerometervalues = new float [ 3 ];
float [] magneticfieldvalues = new float [ 3 ];
private static final string tag = "sensor" ;
@override
public void oncreate(bundle savedinstancestate) {
// todo auto-generated method stub
super .oncreate(savedinstancestate);
setcontentview(r.layout.main);
sm = (sensormanager)getsystemservice(context.sensor_service);
asensor = sm.getdefaultsensor(sensor.type_accelerometer);
msensor = sm.getdefaultsensor(sensor.type_magnetic_field);
sm.registerlistener(mylistener, asensor, sensormanager.sensor_delay_normal);
sm.registerlistener(mylistener, msensor,sensormanager.sensor_delay_normal);
//更新显示数据的方法
calculateorientation();
}
//再次强调:注意activity暂停的时候释放
public void onpause(){
sm.unregisterlistener(mylistener);
super .onpause();
}
final sensoreventlistener mylistener = new sensoreventlistener() {
public void onsensorchanged(sensorevent sensorevent) {
if (sensorevent.sensor.gettype() == sensor.type_magnetic_field)
magneticfieldvalues = sensorevent.values;
if (sensorevent.sensor.gettype() == sensor.type_accelerometer)
accelerometervalues = sensorevent.values;
calculateorientation();
}
public void onaccuracychanged(sensor sensor, int accuracy) {}
};
private void calculateorientation() {
float [] values = new float [ 3 ];
float [] r = new float [ 9 ];
sensormanager.getrotationmatrix(r, null , accelerometervalues, magneticfieldvalues);
sensormanager.getorientation(r, values);
// 要经过一次数据格式的转换,转换为度
values[ 0 ] = ( float ) math.todegrees(values[ 0 ]);
log.i(tag, values[ 0 ]+ "" );
//values[1] = (float) math.todegrees(values[1]);
//values[2] = (float) math.todegrees(values[2]);
if (values[ 0 ] >= - 5 && values[ 0 ] < 5 ){
log.i(tag, "正北" );
}
else if (values[ 0 ] >= 5 && values[ 0 ] < 85 ){
log.i(tag, "东北" );
}
else if (values[ 0 ] >= 85 && values[ 0 ] <= 95 ){
log.i(tag, "正东" );
}
else if (values[ 0 ] >= 95 && values[ 0 ] < 175 ){
log.i(tag, "东南" );
}
else if ((values[ 0 ] >= 175 && values[ 0 ] <= 180 ) || (values[ 0 ]) >= - 180 && values[ 0 ] < - 175 ){
log.i(tag, "正南" );
}
else if (values[ 0 ] >= - 175 && values[ 0 ] <- 95 ){
log.i(tag, "西南" );
}
else if (values[ 0 ] >= - 95 && values[ 0 ] < - 85 ){
log.i(tag, "正西" );
}
else if (values[ 0 ] >= - 85 && values[ 0 ] <- 5 ){
log.i(tag, "西北" );
}
}
}
|
实训的时间非常紧张,抽时间写总结感觉很累,但是感觉收获很多,如果有时间的话,也想给大家分享第二种方法,和这种比起来简单很多,其实大家可以完全参考上篇文章中的代码《android基于sensor感应器获取重力感应加速度的方法》
只要把其中的两个sensor。type_accelerometer改成 sensor.type_orientatio就好了,但是今天分享的方法大家最好掌握,这应该是未来android的标准。
sensor感应器应该就先暂时介绍到这里吧,该看一下进程线程的东西了,其实hardware包中还有个非常重要的类,camera摄像头,相信大家也听过android扫描器,很强大。以后有时间和大家分享吧。
接下来的安排 应该是 线程 activity然后是geocode
话说我也没有个指导老师,一个人对着sdk研究这些,有些累阿~求高人指点。
希望本文所述对大家android程序设计有所帮助。