原创文章,转载请注明: 转载自慢慢的回味
LDA-math-神奇的Gamma函数(1) | 我爱自然语言处理.
本作品采用知识共享署名 4.0 国际许可协议进行许可。
Continues Learning
原创文章,转载请注明: 转载自慢慢的回味
本文链接地址: Canopy集群算法(org.apache.mahout.clustering.canopy.CanopyDriver)
1 选择T1和T2,T1>T2。其中T1为弱归属距离,T2为强归属距离。
2 对每个点进行到中心点的距离计算。其中,第一点计算时没有中心点,则以第一点为中心创建一个集群。
2.1 当距离小于T1时,标记当前点为弱归属点,对应的集群加入此点
2.2 当小于T2时,标记当前点为强归属点。
2.3 如果当前点不是强归属点,则以当前点为中心创建一个新的集群。
3 对所有的集群中心点,计算新的集群。
对所有的点,计算其和每个中心的距离,距离最小者为当前点的集群。
/* CanopyMapper.java*/ @Override protected void map(WritableComparable<?> key, VectorWritable point, Context context) throws IOException, InterruptedException { canopyClusterer.addPointToCanopies(point.get(), canopies); } @Override protected void cleanup(Context context) throws IOException, InterruptedException { for (Canopy canopy : canopies) { canopy.computeParameters(); if (canopy.getNumObservations() > clusterFilter) { context.write(new Text("centroid"), new VectorWritable(canopy .getCenter())); } } super.cleanup(context); } /* CanopyClusterer.java*/ public void addPointToCanopies(Vector point, Collection<Canopy> canopies) { boolean pointStronglyBound = false; for (Canopy canopy : canopies) { double dist = measure.distance(canopy.getCenter().getLengthSquared(), canopy.getCenter(), point); if (dist < t1) { if (log.isDebugEnabled()) { log.debug("Added point: {} to canopy: {}", AbstractCluster.formatVector(point, null), canopy.getIdentifier()); } canopy.observe(point); } pointStronglyBound = pointStronglyBound || dist < t2; } if (!pointStronglyBound) { if (log.isDebugEnabled()) { log.debug("Created new Canopy:{} at center:{}", nextCanopyId, AbstractCluster.formatVector(point, null)); } canopies.add(new Canopy(point, nextCanopyId++, measure)); } } /* CanopyReducer.java */ @Override protected void reduce(Text arg0, Iterable<VectorWritable> values, Context context) throws IOException, InterruptedException { for (VectorWritable value : values) { Vector point = value.get(); canopyClusterer.addPointToCanopies(point, canopies); } for (Canopy canopy : canopies) { canopy.computeParameters(); if (canopy.getNumObservations() > clusterFilter) { ClusterWritable clusterWritable = new ClusterWritable(); clusterWritable.setValue(canopy); context.write(new Text(canopy.getIdentifier()), clusterWritable); } } } |
本作品采用知识共享署名 4.0 国际许可协议进行许可。
原创文章,转载请注明: 转载自慢慢的回味
本文链接地址: Fuzzykmeans集群算法(cluster-reuters)
1 随机从待分类的向量中选出20个作为20个集群的中心。
2 对所有的点,计算其和每个中心的距离,得到点归属于每个集群的概率。
3 重新对每个集群计算新的中心,并计算新的中心和老的中心的距离,判断其是否收敛。
4 如果所有集群都收敛或者达到用户指定的条件,则集群完成。否则,从2开始下一轮计算。
对所有的点,计算其和每个中心的距离,得到点归属于每个集群的概率。
请先阅读kmeans集群算法(cluster-reuters)
这里只说明FuzzyKMeansClusteringPolicy和KMeansClusteringPolicy的不同地方
/* FuzzyKMeansClusteringPolicy.java中的方法*/ /* 相对于KMeansClusteringPolicy,KMeansClusteringPolicy只返回最大概率者,而本方法是全部返回。*/ @Override public Vector select(Vector probabilities) { return probabilities; } /* 此方法计算当前点属于所以集群中心的概率*/ @Override public Vector classify(Vector data, ClusterClassifier prior) { Collection<SoftCluster> clusters = Lists.newArrayList(); List<Double> distances = Lists.newArrayList(); for (Cluster model : prior.getModels()) { SoftCluster sc = (SoftCluster) model; clusters.add(sc); distances.add(sc.getMeasure().distance(data, sc.getCenter())); } FuzzyKMeansClusterer fuzzyKMeansClusterer = new FuzzyKMeansClusterer(); fuzzyKMeansClusterer.setM(m); return fuzzyKMeansClusterer.computePi(clusters, distances); } |
本作品采用知识共享署名 4.0 国际许可协议进行许可。
原创文章,转载请注明: 转载自慢慢的回味
本文链接地址: kmeans集群算法(cluster-reuters)
1 随机从待分类的向量中选出20个作为20个集群的中心。
2 对所有的点,计算其和每个中心的距离,距离最小者为当前点的集群归属。
3 重新对每个集群计算新的中心,并计算新的中心和老的中心的距离,判断其是否收敛。
4 如果所有集群都收敛或者达到用户指定的条件,则集群完成。否则,从2开始下一轮计算。
对所有的点,计算其和每个中心的距离,距离最小者为当前点的集群归属。
$MAHOUT kmeans \ -i ${WORK_DIR}/reuters-out-seqdir-sparse-kmeans/tfidf-vectors/ \ -c ${WORK_DIR}/reuters-kmeans-clusters \ -o ${WORK_DIR}/reuters-kmeans \ -dm org.apache.mahout.common.distance.CosineDistanceMeasure \ -x 10 -k 20 -ow --clustering |
在这之前同样需要调用seqdirectory和seq2sparse,请参考贝叶斯分类(classify-20newsgroups)
if (hasOption(DefaultOptionCreator.NUM_CLUSTERS_OPTION)) { clusters = RandomSeedGenerator.buildRandom(getConf(), input, clusters, Integer.parseInt(getOption(DefaultOptionCreator.NUM_CLUSTERS_OPTION)), measure); } |
随机从待集群的文章中选取20篇文字作为20个集群的中心。
继续阅读“kmeans集群算法(cluster-reuters)”本作品采用知识共享署名 4.0 国际许可协议进行许可。
原创文章,转载请注明: 转载自慢慢的回味
Large-scale Parallel Collaborative Filtering for the Netflix Prize
设表示为user和movie的矩阵。可以定义一个损失函数其中,r为实际的rating值,<u,m>为待求出的user,movie矩阵计算出的值,显然当损失函数值最小时,user-movie矩阵即为所求。
继续阅读“Parallel-ALS推荐算法(factorize-movielens-1M)”本作品采用知识共享署名 4.0 国际许可协议进行许可。