【机器学习】KNN算法介绍及py实现(详细代码,通俗易懂)

14 篇文章 3 订阅
订阅专栏

KNN算法(K-Nearest Neighbors)

目标

看完这篇博客你将学会:

  • 用KNN算法来对数据进行分类

在这里,我们将用knn对一个顾客数据集进行分类。不过什么是knn呢,什么是K-Nearest Neighbors,直观翻译就是k个最近的邻居。

K-Nearest Neighbors是一种监督学习算法,为了预测未知数据的类别,它考虑了k个最近数据点的类别,并选择k个最近数据点中的大多数属于的那个类别作为预测类别。

这是KNN的直观表示

在这种情况下,我们有 A 类和 B 类的数据点。我们想预测星(测试数据点)是什么。 如果我们考虑 k 值为 3(3 个最近的数据点),我们将获得 B 类的预测。然而,如果我们考虑 k 值为 6,我们将获得 A 类的预测。

从这个意义上说,重要的是要考虑 k 的值。 希望从这张图中,您应该了解什么是 K-Nearest Neighbors 算法。 它在预测测试点的分类时会考虑“K”个最近邻(数据点)。

安装sklearn以及导入包

!pip install scikit-learn==0.23.1

导入需要的包

import numpy as np
import matplotlib.pyplot as plt
import pandas as pd
import numpy as np
from sklearn import preprocessing
%matplotlib inline

关于数据集

想象一下,一家电信供应商已经按照服务使用模式对其客户群进行了细分,将客户分为四组。 如果人口统计数据可用于预测团体成员,公司可以为个别潜在客户定制优惠。 这是一个分类问题。 也就是说,给定具有预定义标签的数据集,我们需要建立一个模型来预测新案例或未知案例的类别。

这个例子侧重于使用人口统计数据(例如地区、年龄和婚姻)来预测。

名为 custcat 的目标字段有四个可能的值,对应于四个客户组,如下所示:

1- Basic Service
2- E-Service
3- Plus Service
4- Total Service

我们的目标是建立一个分类器,来预测未知案例的类别。 我们就将使用这次的knn来分类。

下载数据

https://cf-courses-data.s3.us.cloud-object-storage.appdomain.cloud/IBMDeveloperSkillsNetwork-ML0101EN-SkillsNetwork/labs/Module%203/data/teleCust1000t.csv

df = pd.read_csv('teleCust1000t.csv')
df.head()
regiontenureagemaritaladdressincomeedemployretiregenderresidecustcat
0213441964.0450.0021
13113317136.0550.0064
236852124116.01290.0123
32333301233.0200.0111
4223301930.0120.0043

数据可视化及分析

让我们看看数据集中每个类别有多少
df['custcat'].value_counts()
3    281
1    266
4    236
2    217
Name: custcat, dtype: int64
281 Plus Service, 266 Basic-service, 236 Total Service, and 217 E-Service customers

我们也可以画一个分布直方图来可视化一下

df.hist(column='income', bins=50)


[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-NMbqQmvn-1660611613546)(output_20_1.png)]

特征集合

我们来定义特征集合, X:

df.columns
Index(['region', 'tenure', 'age', 'marital', 'address', 'income', 'ed',
       'employ', 'retire', 'gender', 'reside', 'custcat'],
      dtype='object')

要使用 scikit-learn 库,我们必须将 Pandas 数据框转换为 Numpy 数组:

X = df[['region', 'tenure','age', 'marital', 'address', 'income', 'ed', 'employ','retire', 'gender', 'reside']] .values  #.astype(float)
X[0:5]

array([[  2.,  13.,  44.,   1.,   9.,  64.,   4.,   5.,   0.,   0.,   2.],
       [  3.,  11.,  33.,   1.,   7., 136.,   5.,   5.,   0.,   0.,   6.],
       [  3.,  68.,  52.,   1.,  24., 116.,   1.,  29.,   0.,   1.,   2.],
       [  2.,  33.,  33.,   0.,  12.,  33.,   2.,   0.,   0.,   1.,   1.],
       [  2.,  23.,  30.,   1.,   9.,  30.,   1.,   2.,   0.,   0.,   4.]])

再来看看我们的标签

y = df['custcat'].values
y[0:5]
array([1, 4, 3, 1, 3], dtype=int64)

标准化数据

数据标准化,就是让数据变成均值为0,方差为1。这个做法很好,特别是对于基于数据点距离的knn算法。

X = preprocessing.StandardScaler().fit(X).transform(X.astype(float))
X[0:5]
array([[-0.02696767, -1.055125  ,  0.18450456,  1.0100505 , -0.25303431,
        -0.12650641,  1.0877526 , -0.5941226 , -0.22207644, -1.03459817,
        -0.23065004],
       [ 1.19883553, -1.14880563, -0.69181243,  1.0100505 , -0.4514148 ,
         0.54644972,  1.9062271 , -0.5941226 , -0.22207644, -1.03459817,
         2.55666158],
       [ 1.19883553,  1.52109247,  0.82182601,  1.0100505 ,  1.23481934,
         0.35951747, -1.36767088,  1.78752803, -0.22207644,  0.96655883,
        -0.23065004],
       [-0.02696767, -0.11831864, -0.69181243, -0.9900495 ,  0.04453642,
        -0.41625141, -0.54919639, -1.09029981, -0.22207644,  0.96655883,
        -0.92747794],
       [-0.02696767, -0.58672182, -0.93080797,  1.0100505 , -0.25303431,
        -0.44429125, -1.36767088, -0.89182893, -0.22207644, -1.03459817,
         1.16300577]])

训练/测试集分割

Out of Sample Accuracy 是模型对模型未经过训练的数据做出的正确预测的百分比。 由于我们的模型过度拟合的可能性,在同一数据集上进行训练和测试很可能具有较低的样本外准确度。

重要的是,我们的模型具有较高的样本外准确度,因为任何模型的目的当然是对未知数据做出正确的预测。 那么我们如何提高样本外的准确性呢? 一种方法是使用一种称为训练/测试拆分的评估方法。

训练/测试拆分涉及将数据集分别拆分为互斥的训练集和测试集。 之后,您使用训练集进行训练并使用测试集进行测试。

这将对样本外准确性提供更准确的评估,因为测试数据集不是用于训练模型的数据集的一部分。 对于现实世界的问题,它更精准一些。

from sklearn.model_selection import train_test_split
X_train, X_test, y_train, y_test = train_test_split( X, y, test_size=0.2, random_state=4)
print ('Train set:', X_train.shape,  y_train.shape)
print ('Test set:', X_test.shape,  y_test.shape)
Train set: (800, 11) (800,)
Test set: (200, 11) (200,)

分类

K nearest neighbor (KNN)

导入包

分类器实现 k 近邻投票。

from sklearn.neighbors import KNeighborsClassifier

训练

我们首先看看k的4的时候的情形:

k = 4
#Train Model and Predict  
neigh = KNeighborsClassifier(n_neighbors = k).fit(X_train,y_train)
neigh
KNeighborsClassifier(n_neighbors=4)

预测

我们可以用训练出来的模型在测试集上进行预测:

yhat = neigh.predict(X_test)
yhat[0:5]
array([1, 1, 3, 2, 4], dtype=int64)

准确性评估

在多标签分类中,accuracy classification score准确度分类得分)是计算子集准确度的函数。 此函数等同于 jaccard_score 函数。 本质上,它计算测试集中实际标签和预测标签的匹配程度。

from sklearn import metrics
print("Train set Accuracy: ", metrics.accuracy_score(y_train, neigh.predict(X_train)))
print("Test set Accuracy: ", metrics.accuracy_score(y_test, yhat))
Train set Accuracy:  0.5475
Test set Accuracy:  0.32

进一步练习

这次我们把k改成10。

# write your code here
k = 10
neigh10 = KNeighborsClassifier(n_neighbors = k).fit(X_train,y_train)
yhat10 = neigh10.predict(X_test)
print("Train set Accuracy: ", metrics.accuracy_score(y_train, neigh10.predict(X_train)))
print("Test set Accuracy: ", metrics.accuracy_score(y_test, yhat10))


Train set Accuracy:  0.4875
Test set Accuracy:  0.33
那其他的k呢?

KNN 中的 K 是要检查的最近邻的数量。 由用户指定,是最重要的参数。 那么,我们如何才能为 K 选择正确的值呢?
一般的解决方案是保留一部分数据用于测试模型的准确性。 然后选择k = 1,使用训练部分进行建模,并使用测试集中的所有样本计算预测的准确性。 重复这个过程,增加 k,看看哪个 k 最适合我们的模型。

我们可以计算 KNN 对不同 k 值的准确度。

Ks = 10
mean_acc = np.zeros((Ks-1))
std_acc = np.zeros((Ks-1))

for n in range(1,Ks):
    
    #Train Model and Predict  
    neigh = KNeighborsClassifier(n_neighbors = n).fit(X_train,y_train)
    yhat=neigh.predict(X_test)
    mean_acc[n-1] = metrics.accuracy_score(y_test, yhat)

    
    std_acc[n-1]=np.std(yhat==y_test)/np.sqrt(yhat.shape[0])

mean_acc
array([0.3  , 0.29 , 0.315, 0.32 , 0.315, 0.31 , 0.335, 0.325, 0.34 ])
绘制不同k的knn模型的准确性的图.
plt.plot(range(1,Ks),mean_acc,'g')
plt.fill_between(range(1,Ks),mean_acc - 1 * std_acc,mean_acc + 1 * std_acc, alpha=0.10)
plt.fill_between(range(1,Ks),mean_acc - 3 * std_acc,mean_acc + 3 * std_acc, alpha=0.10,color="green")
plt.legend(('Accuracy ', '+/- 1xstd','+/- 3xstd'))
plt.ylabel('Accuracy ')
plt.xlabel('Number of Neighbors (K)')
plt.tight_layout()
plt.show()


[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-juwWjGc7-1660611613548)(output_50_0.png)]

print( "The best accuracy was with", mean_acc.max(), "with k=", mean_acc.argmax()+1) 
The best accuracy was with 0.34 with k= 9

谢谢大家的观看。

Python实现机器算法-02-KNN
ffzzyy的博客
04-02 209
# -*- coding: UTF-8 -*- """ ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~ @File : knn.py @Contact : ffzzyy@126.com @License : (C)Copyright 2017-2019 @Author : ffzzyy...
KNN算法原理及python代码实现
m0_74100344的博客
04-16 1669
(英文为K-Nearest Neighbor,因而又简称KNN算法)是非常经典的机器学习算法,用于分类和回归问题。其基本原理是对于一个新样本,K近邻算法的目的就是在已有数据中寻找与它最相似的K个数据,或者说“离它最近”的K个数据,如果这K个数据大多数属于某个类别,则该样本也属于这个类别。和K值的选取很大程度决定了KNN算法的结果;点距离则一般使用欧氏距离或曼哈顿距离。
机器学习算法之KNN分类算法【附python实现代码!可运行】
最新发布
xiaoh_7的博客
05-09 1128
本博客介绍了KNNf分类算法的原理和主要思想,同时介绍了如何基于python使用scikit-learn库中的K-最近邻(KNN)分类器在鸢尾花数据集(Iris Dataset)上进行分类预测。
机器学习KNN算法
HYY的博客
07-19 648
KNN算法(K-Nearest Neighbors)是一种基于实例的学习算法,它通过度量样本之间的相似性来进行分类或回归。KNN算法的基本思想很简单:对于一个未知样本,它的类别或输出值可以通过与训练集中最近邻居的比较来确定。这里的"最近邻"是指距离新样本最近的K个训练集样本。KNN算法的优点是简单易懂,不需要进行显式的训练过程,而且在处理非线性问题或数据较为复杂的情况下表现良好。然而,KNN算法也有一些限制。例如,它在处理大规模数据时可能会变得较慢,因为需要计算新样本与所有训练样本之间的距离。
KNN(K最近邻算法)原理及代码实现
weixin_45181983的博客
07-04 3098
KNN(K最近邻算法)原理及代码实现邻近算法,或者说K最邻近(KNN,K-NearestNeighbor)分类算法是数据挖掘分类技术中最简单的方法之一。该方法的思路非常简单直观:根据其最近的K个样本的分类确定它自身类别的分类算法。一般来说在计算距离时,可以使用他们之间的直线距离即欧氏距离,或坐标绝对值之和,即曼哈顿距离。所谓K最近邻,就是K个最近的邻居的意思,说的是每个样本都可以用它最接近的K个邻近值来代表。K的取值非常重要。K太小:受到个例影响严重,波动较大。 .....................
机器学习——kNN算法之红酒分类
m0_52474147的博客
08-31 6313
数据集介绍数据集为一份红酒数据,总共有 178 个样本,每个样本有 13 个特征,这里不会为你提供红酒的标签,你需要自己根据这 13 个特征对红酒进行分类。
Python: KNN算法实现
The Best or Nothing.
04-02 816
1、KNN介绍K最近邻(k-Nearest Neighbor,KNN)分类算法是最简单的机器学习算法机器学习算法本身不是最难的,最难的是:1、数学建模:把业务中的特性抽象成向量的过程;2、选取适合模型的数据样本。这两个事都不是简单的事。算法反而是比较简单的事。本质上,KNN算法就是用距离来衡量样本之间的相似度。2、算法图示◊ 从训练集中找到和新数据最接近的k条记录,然后根据多数类来决定新数据类...
KNN算法原理和代码详解
qq_52310720的博客
07-06 995
有这样一条河流like that,河流的左边是rich 人家,河流的右边是poor 人家,这时新搬来一家小甲,这个算法是看小甲是有钱人家还是没钱人家。要解决这个问题,那么就可以说立着他最近的几个人家是富人多还是穷人多就可以判别了,K户人家,最近距离就是欧氏距离或者曼哈顿距离,切比雪夫距离。这是欧氏距离,在中学都有学过。advantage: 显而易见的简单以实现,而且对于边界不规则的数据效果较好disadvantage: 只适合小的数据集,数据不平衡就没法用了肯定就难受了,数据必须标准化因为非富有即贫穷没有中
KNN算法原理以及实例
weixin_62276149的博客
10-09 893
KNN(K-Nearest Neighbor,k近邻)算法是一种基本的分类与回归方法,它的基本思想是:在特征空间中,如果一个样本的k个最近邻居大多数属于某一类别,则该样本也属于这一类别。在KNN算法中,首先需要度量样本之间的距离,通常采用欧氏距离或曼哈顿距离。然后,选择一个合适的k值(一般通过交叉验证选取),对于每个待分类的测试样本,在训练数据集中找到其k个最近邻居,根据它们所属的类别进行投票,得票最多的类别即为该测试样本的分类结果。
机器学习KNN算法原理及Python实现方法详解
09-20
KNN(K-Nearest Neighbors)算法机器学习领域中一种基础且直观的分类和回归方法。它属于监督学习算法,即在训练过程中需要已知的标记数据。KNN算法的基本思想是:通过计算新数据点与训练数据集中各个点的距离,...
机器学习KNN算法
01-06
kNN算法的核心思想是如果一个样本在特征空间中的k个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性。该方法在确定分类决策上只依据最邻近的一个或者几个样本的类别来...
机器学习实战 - k近邻算法KNN算法)总结
04-12
机器学习实战 - k近邻算法KNN算法)总结 适合机器学习实战入门新手 K-近邻算法,又称为 KNN 算法,是数据挖掘技术中原理最简单的算法。 KNN 的工作原理:给定一个已知类别标签的数据训练集,输入没有标签的新数据...
机器学习KNN算法KNN.py
11-27
机器学习KNN算法KNN.py
K最近邻算法(KNN)及其Python实现
AI_dataloads的博客
09-07 478
K最近邻算法(KNN)是一种基于实例的学习方法,用于分类和回归任务。它假设相似的输入具有相似的输出,在分类任务中,KNN算法根据输入样本的邻居来进行分类,而在回归任务中,它通过邻居的平均值来进行预测。
应用python实现k近邻算法(学生活跃表现数据实战)
weixin_74115081的博客
03-26 271
如上图所示的案例,进行KNN分类回归模型计算。KNN模型计算中,除K值的确定外,还有一个非常重要的计算,既样本点间的距离计算.距离计算的公式有很多,例如欧式距离,曼哈顿距离,切比雪夫距离,马氏距离等,我们本次应用欧式距离。例如,在二维空间内,欧式距离如式。使用python语言应用SKlearn工具包实现KNN算法。SKlearn中包含有很多现成的机器学习算法包,可大幅度降低使用者1编程难度与复杂度,节省项目开发时间与人力成本。数据准备完成以后,开始编写python下基于SKlearn组件的KNN实现
一文速学数模-分类模型(三)k近邻算法(KNN)详解及python实现和应用
master_hunter的博客
10-05 3423
前言 本人大数据专业初入大三刚刚接触机器学习这一课程,最近在学习这本书《机器学习实战》,第一次练习就是简单易懂的KNN算法了。当然初入一些算法机器学习的一些库还不是很熟练掌握,有待提升自己的编程结合能力。在此领域本人有诸多不明确疑问,可能文章会有些许错误,望大家在评论区指正,本篇文章错误将会不断更正维护。 一、KNN算法概述 工作原理:存在一个样本数据集合,也称作训练样本集,并且样本集中每个数据都纯在标签,就每一个样本都有一个标签与之对应。输入没带标签的新数据之后,将新数据的每个特征与样...
knn算法python代码_KNN算法原理(python代码实现
weixin_39834205的博客
12-03 815
kNN(k-nearest neighbor algorithm)算法的核心思想是如果一个样本在特征空间中的k个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性。简单地说,K-近邻算法采用测量不同特征值之间的距离方法进行分类。- 优点:精度高、对异常值不敏感、无数据输入假定。- 缺点:计算复杂度高、空间复杂度高。- 适用数据范围:数值型和标称型。举个简单的例...
机器学习系列】之纯python及sklearn实现kNN
qq_41995574的博客
05-19 947
作者:張張張張 github地址:https://github.com/zhanghekai 【转载请注明出处,谢谢!】 文章目录一、纯python实现kNN Brute-Force法kNN项目案例:优化约会网站的配对效果二、sklearn实现kNN:KDTree和BallTree 一、纯python实现kNN Brute-Force法 kNN项目案例:优化约会网站的配对效果 项目概述 拉克丝使用...
【火炉炼AI】机器学习030-KNN分类器模型的构建
weixin_34414650的博客
10-08 221
【火炉炼AI】机器学习030-KNN分类器模型的构建 (本文所使用的Python库和版本号: Python 3.6, Numpy 1.14, scikit-learn 0.19, matplotlib 2.2 ) KNN(K-nearest neighbors)是用K个最近邻的训练数据集来寻找未知对象分类的一种算法。其基本的核心思想在我的上一篇文章中介绍过了。 1. 准备数据集 此处我的数据集准...
KNN算法介绍代码实现matlab
05-30
KNN算法是一种基于实例的学习算法,它的基本思想是将样本集中与待分类样本最近的K个样本作为参考,根据这K个样本的类别来判断待分类样本的类别。KNN算法的优点是简单易懂,不需要建立模型,分类效果较好,但是由于其计算量较大,对于大规模数据集不太适用。 以下是KNN算法的matlab代码实现: 1. 加载数据集 假设我们有一个数据集,其中包含3个样本,每个样本有2个特征。我们可以将数据集表示为一个3行2列的矩阵。 ```matlab data = [1 2; 2 1; 3 4]; ``` 2. 定义待分类样本 我们定义一个待分类样本,它有2个特征。 ```matlab testData = [2 3]; ``` 3. 计算距离 我们使用欧氏距离来计算每个样本与待分类样本之间的距离,距离计算公式为: $$d(x,y)=\sqrt{\sum_{i=1}^{n}(x_i-y_i)^2}$$ ```matlab dist = sqrt(sum((data - repmat(testData,size(data,1),1)).^2,2)); ``` 其中,`repmat(testData,size(data,1),1)`表示将待分类样本重复3次,然后与数据集相减,再对每个样本进行求和,最后取平方根,即可得到每个样本与待分类样本之间的距离。 4. 选择K个最近的样本 我们选择距离最小的K个样本作为参考,这里我们选择K=2。 ```matlab k = 2; [~, idx] = sort(dist); kIdx = idx(1:k); ``` 其中,`[~, idx] = sort(dist)`表示将距离从小到大排序,`kIdx = idx(1:k)`表示选择前K个最近的样本。 5. 统计K个最近样本的类别 我们统计K个最近样本的类别,并选择出现次数最多的类别作为待分类样本的类别。 ```matlab labels = [1 1 2]; testLabel = mode(labels(kIdx)); ``` 其中,`labels`表示每个样本的类别,这里我们假设有2个类别,分别为1和2,`mode`函数表示选择出现次数最多的元素。 完整代码如下: ```matlab data = [1 2; 2 1; 3 4]; testData = [2 3]; dist = sqrt(sum((data - repmat(testData,size(data,1),1)).^2,2)); k = 2; [~, idx] = sort(dist); kIdx = idx(1:k); labels = [1 1 2]; testLabel = mode(labels(kIdx)); ``` 以上就是KNN算法的matlab代码实现

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
写文章

热门文章

  • 【清风数模】时间序列分析(spss实现,详细笔记) 24603
  • 在MATLAB中快速画圆(给出圆心坐标和半径就能直接画的那种) 21512
  • 数据结构--顺序表的c语言实现(超详细注释/实验报告) 16703
  • 数据结构--单链表的c语言实现(超详细注释/实验报告) 16159
  • 数据结构--顺序栈的c语言实现(超详细注释/实验报告) 10901

分类专栏

  • 小技巧 13篇
  • 生物信息 17篇
  • 单细胞和空间组学 3篇
  • 每日一图 3篇
  • 图神经网络 3篇
  • ML 14篇
  • R语言 15篇
  • 拓展视野 1篇
  • linux 4篇
  • matlab 11篇
  • Python强基计划 3篇
  • 数学建模 12篇
  • 数据库 1篇
  • 统计学 1篇
  • 数据结构 13篇

最新评论

  • 【文献copilot】调用文心一言api对论文逐段总结

    Dream of Grass: 这个就是我写了一些函数放到里面

  • 【文献copilot】调用文心一言api对论文逐段总结

    CHOSEN · 1: md_translator.py这个代码具体是干什么的?

  • 深入浅出原核基因表达调控(乳糖操纵子、色氨酸操纵子)

    aim_of_being: 牛极了,感谢大佬!

  • 数据结构--链栈的c语言实现(超详细注释/实验报告)

    Dream of Grass: 好滴谢谢啦,多谢大佬提醒!

  • 数据结构--链栈的c语言实现(超详细注释/实验报告)

    CS[NVMeoF]: 你写的有问题啊,你创建的这个链表是有头结点的,但是你的入栈和出栈的判错都是按照没有头结点来写的

最新文章

  • 打包conda环境的两种方法:conda env export和Conda-Pack
  • 一行代码将h5ad转换为rds(其他常用格式也有)
  • 【图论】计算图的n-hop邻居个数,并绘制频率分布直方图
2024年9篇
2023年12篇
2022年43篇
2021年21篇

目录

目录

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

深圳SEO优化公司深圳网站推广方案深圳网络营销龙华百度竞价包年推广沙井网站制作设计盐田网站推广系统塘坑网站seo优化大运优秀网站设计罗湖网络营销同乐网站优化大运阿里店铺运营民治英文网站建设沙井网站推广工具西乡网站制作设计南澳企业网站设计荷坳优秀网站设计宝安网站优化推广福永网站优化按天收费双龙优秀网站设计福田模板制作爱联SEO按天收费龙华网站建设设计南澳网站推广方案广州关键词按天收费荷坳营销网站南联seo网站推广木棉湾SEO按天收费民治SEO按天收费坪山网站推广系统布吉建网站坑梓网站开发歼20紧急升空逼退外机英媒称团队夜以继日筹划王妃复出草木蔓发 春山在望成都发生巨响 当地回应60岁老人炒菠菜未焯水致肾病恶化男子涉嫌走私被判11年却一天牢没坐劳斯莱斯右转逼停直行车网传落水者说“没让你救”系谣言广东通报13岁男孩性侵女童不予立案贵州小伙回应在美国卖三蹦子火了淀粉肠小王子日销售额涨超10倍有个姐真把千机伞做出来了近3万元金手镯仅含足金十克呼北高速交通事故已致14人死亡杨洋拄拐现身医院国产伟哥去年销售近13亿男子给前妻转账 现任妻子起诉要回新基金只募集到26元还是员工自购男孩疑遭霸凌 家长讨说法被踢出群充个话费竟沦为间接洗钱工具新的一天从800个哈欠开始单亲妈妈陷入热恋 14岁儿子报警#春分立蛋大挑战#中国投资客涌入日本东京买房两大学生合买彩票中奖一人不认账新加坡主帅:唯一目标击败中国队月嫂回应掌掴婴儿是在赶虫子19岁小伙救下5人后溺亡 多方发声清明节放假3天调休1天张家界的山上“长”满了韩国人?开封王婆为何火了主播靠辱骂母亲走红被批捕封号代拍被何赛飞拿着魔杖追着打阿根廷将发行1万与2万面值的纸币库克现身上海为江西彩礼“减负”的“试婚人”因自嘲式简历走红的教授更新简介殡仪馆花卉高于市场价3倍还重复用网友称在豆瓣酱里吃出老鼠头315晚会后胖东来又人满为患了网友建议重庆地铁不准乘客携带菜筐特朗普谈“凯特王妃P图照”罗斯否认插足凯特王妃婚姻青海通报栏杆断裂小学生跌落住进ICU恒大被罚41.75亿到底怎么缴湖南一县政协主席疑涉刑案被控制茶百道就改标签日期致歉王树国3次鞠躬告别西交大师生张立群任西安交通大学校长杨倩无缘巴黎奥运

深圳SEO优化公司 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化