国内精品久久久久_亚洲区手机在线中文无码播放_国内精品久久久久影院一蜜桃_日韩内射激情视频在线播放免费

      延安建材城推薦?

      時間:2025-05-20 06:47 人氣:0 編輯:招聘街

      一、延安建材城推薦?

      延安家居建材市場的地址如下:

      1、延安圣明宮建材市場地址:延安市寶塔區(qū)尹家溝2、建材市場地址:延安市吳起縣303省道附近3、家具市場地址:延安市安塞縣二零六省道喜洋洋超市附近雖然可能沒解決你的實際問題,但是我還是很高興能為你解答問題。

      二、建材城東站選址?

      138路公交線建材城東站選址在建材城大門東側50米。

      三、成都建材城推薦?

      成都的建材市場有:百姓家裝、博美、金府裝飾、512建材、大西南建材等等。

      成都百姓家裝市場:成都市玉沙路123號;

      成都博美裝飾城:成都市花牌坊街319號 ;

      成都金府裝飾城:成都市沙灣路北延線與金府路交匯處 ;

      成都512建材市場:成都市二環(huán)路北四段3號 ;

      成都大西南建材城 :成都市外北洞子口貯木場 ;

      成都府河市場地址:成都二環(huán)路北二段 ;

      成都交大裝飾城地址:成都市二環(huán)路北一段(西南交大東南角);

      成都東泰建材市場地址:成都市二環(huán)路西一段紅牌樓東泰商城有限公司 ;

      成都西南建材中心地址:成都市二環(huán)路北三段 ;

      成都錦繡家園市場 地址:成都市火車南站 ;

      新世紀裝飾廣場:高升橋路16號;

      四、陽江建材城推薦?

      華科國際家居生活廣場位于陽江市陽東區(qū),項目規(guī)劃面積約22萬平方米,建筑面積約為52萬平方米,

      居然之家陽江店位于陽江市陽東區(qū),項目于2013年9月28日開業(yè),總規(guī)劃面積約8萬平方米,

      五、常德建材城推薦?

      東門的鋼材大市場,火車站建材裝飾城,火車站美居建材裝飾城,靠近汽車城的匯美家居建材廣場,還有興隆裝飾城.大概就這些吧

      六、揭陽建材城推薦?

      榕城建材綜合市場

      美順建材城

      興榮建材城

      七、河源建材城推薦?

      河源建材城是一個較大的建材市場,有很多供應商和品牌可以選擇。以下是一些建議的建材城供應商:

      1. 河源建材城一期:這是河源建材城最早建立的部分,有各類建材供應商,包括瓷磚、衛(wèi)浴、地板等。

      2. 河源建材城二期:二期相對較新,也有很多供應商提供各種建材產(chǎn)品,包括裝修材料、門窗、燈具等。

      3. 建材城周邊:河源建材城附近還有一些獨立的建材商鋪,也可以考慮去這些地方尋找需要的建材產(chǎn)品。

      在選擇建材供應商時,可以根據(jù)自己的需求和預算進行比較,了解各個供應商的產(chǎn)品質量、價格和售后服務等方面。此外,建議提前做好準備工作,比如了解自己的裝修需求,測量尺寸,帶好相關的圖紙和樣品,以便更好地選擇和購買合適的建材產(chǎn)品。

      八、信陽建材城推薦?

      國際建材港

      建材港劃分陶瓷、五金電料水暖、板材油漆、木地板、櫥柜、燈飾、門業(yè)、玻璃石材型材等,是信陽種類與品牌都多且全的建材市場。

      地址:位于鄂豫皖三省交界的信陽市羊山新區(qū)東北部南京路146號金達裝飾材料大市場

      金達裝飾市場是信陽規(guī)模大、檔次高、設施全的專業(yè)建材市場市場。包括陶瓷地板、衛(wèi)生潔具、木制地板、裝飾用器、淋浴房、櫥柜、裝飾石材等。2004年被評為河南省文明誠信建材市場。

      地址:信陽市浉河區(qū)工區(qū)路223號金達建材市場

      主營裝修材料,細木板、扣板、免漆板、鎖具和五金等,比較全面。

      地址:信陽市浉河區(qū)湖東大道2號

      九、海口建材城推薦?

      海口金鹿裝飾大世界

      金鹿裝飾大世界在海口開業(yè)。由金鹿實業(yè)創(chuàng)建的燈具裝飾大世界是海口市重點項目,位于海府路,主要銷售:燈具燈飾、電料、吊頂、門業(yè)、板材裝飾等,市場規(guī)模8萬平方米,匯集了數(shù)百個品種的商品。

      海口塔光陶瓷市場

      塔光陶瓷城是海南省“十佳”專業(yè)市場,多年的市場培育、優(yōu)越的地理位置,以及注重品牌、崇尚精品、恪守誠信的經(jīng)營理念,使這里成為省內陶瓷交易的首選地之一,目前塔光已發(fā)展成占地18.8畝,擁有陶瓷鋪面228家的大型專業(yè)市場,共有來自全國各地的經(jīng)營業(yè)主85家,從業(yè)人員800人以上。

      海口萬佳家居裝飾廣場

      海南萬佳家居裝飾廣場于 2004 年 10 月 18 日火爆開業(yè), 它的開業(yè)創(chuàng)下海南家居建材零售行業(yè)多個之最:規(guī)模最大、品牌最多、品種最齊、購物環(huán)境最好、配套設施最齊、裝修檔次最高、現(xiàn)代化程度最高和管理最專業(yè),同時,它的開業(yè)也標志著海南家居建材零售行業(yè)走向規(guī)模化、現(xiàn)代化和檔次化的發(fā)展之路。

      海口亞豪建材城

      作為本土大型建材商城,亞豪建材城一直致力于打造椰城最好的建材賣場,讓消費者享受到最實在的好建材產(chǎn)品。不少消費者因為賣場硬件環(huán)境而感嘆,理所當然地認為好就是貴的代名詞,其實不然。而亞豪建材城的優(yōu)惠力度一直是行業(yè)內的佼佼者,不管是何種促銷方式,每次帶給消費者的都是實實在在的優(yōu)惠。因此也獲得了消費者的肯定和信任,亞豪建材城也一直在努力為消費者打造最驚爆的特價和最超值的折扣,一路走來,亞豪建材城給消費者帶來了一個又一個的驚喜。

      海口居然之家

      居然之家海口店位于海口市濱海大道96號,西鄰美麗的西海岸旅游度假區(qū),是海口最具消費潛力的地區(qū)之一;東鄰海口秀英港碼頭,交通便利。海口店全部建成后經(jīng)營面積約60000平方米,匯集了十余萬種國內外知名優(yōu)產(chǎn)品,一期家具家飾館已于2010年8月開業(yè)。

      海口城西建材市場

      城西建材交易市場主要由新華建筑陶瓷交易市場和城西路兩側沿街的建材批零鋪面組成,目前,該市場共有300間鋪面,經(jīng)營面積為34000平方米,已成為省內主要的 建材批發(fā)、零售集散地。該交易市場每年營業(yè)額已達5個億,稅收每年約3000萬元,提供就業(yè)崗位3500個,且?guī)恿诉\輸、裝修、飲食、房屋出租、零售、農(nóng)貿(mào)市場等行業(yè)的發(fā)展。

      海口克耐爾廚柜

      克耐爾廚柜是一家匯集設計、施工、管理、售后服務等一條龍的專業(yè)室內裝飾有限公司。在中國獨家代理銷售“克耐爾櫥柜系列”,品質來源于法國。“克耐爾櫥柜”服務宗旨:整體設計,跟蹤服務。克耐爾憑借成功的品牌策略及規(guī)范化、專業(yè)化的管理模式,以其專業(yè)技術、嚴格的管理優(yōu)質服務成就了無數(shù)佳品,贏得了廣大客戶的信賴。

      海口和風彩陶廠

      海南和風彩陶廠位于海南省中部的海榆中線公路80.5公里處,是專業(yè)生產(chǎn)裝飾磚瓦的建材企業(yè),主要產(chǎn)品有陶瓷彩釉瓦、劈開磚、廣場磚等。

      海口新發(fā)石材市場

      海口新發(fā)石材有限公司自成立以來,在全體員工的勤勤懇懇、艱苦奮斗的敬業(yè)精神下,腳踏“石”地,始終以質量、信譽、效率、價廉為宗旨和原則,日益發(fā)展成今日規(guī)模較大,實力雄厚的石材專業(yè)公司。

      海口金鹿裝飾大世界

      大自然地板(中國)有限公司為中國地板控股有限公司全資擁有附屬公司,以銷售大自然實木地板、實木復合地板、生態(tài)地板、強化地板為主營業(yè)務。自 2001年以來,大自然地板產(chǎn)品銷量持續(xù)強勁增長,產(chǎn)品市場占有率在同行業(yè)中名列前茅,已成為亞洲最大的木地板骨干企業(yè)之一,在與中國地板行業(yè)一起發(fā)展壯大的歷程中,大自然地板積極助推中國地板行業(yè)發(fā)展,為振興民族工業(yè)品牌奉獻著自己的力量。大自然地板以前瞻性眼光和全球化視野,致力于打造全球一流地板企業(yè),一個全球化發(fā)展戰(zhàn)略的國際化品牌已經(jīng)崛起。

      十、mahout面試題?

      之前看了Mahout官方示例 20news 的調用實現(xiàn);于是想根據(jù)示例的流程實現(xiàn)其他例子。網(wǎng)上看到了一個關于天氣適不適合打羽毛球的例子。

      訓練數(shù)據(jù):

      Day Outlook Temperature Humidity Wind PlayTennis

      D1 Sunny Hot High Weak No

      D2 Sunny Hot High Strong No

      D3 Overcast Hot High Weak Yes

      D4 Rain Mild High Weak Yes

      D5 Rain Cool Normal Weak Yes

      D6 Rain Cool Normal Strong No

      D7 Overcast Cool Normal Strong Yes

      D8 Sunny Mild High Weak No

      D9 Sunny Cool Normal Weak Yes

      D10 Rain Mild Normal Weak Yes

      D11 Sunny Mild Normal Strong Yes

      D12 Overcast Mild High Strong Yes

      D13 Overcast Hot Normal Weak Yes

      D14 Rain Mild High Strong No

      檢測數(shù)據(jù):

      sunny,hot,high,weak

      結果:

      Yes=》 0.007039

      No=》 0.027418

      于是使用Java代碼調用Mahout的工具類實現(xiàn)分類。

      基本思想:

      1. 構造分類數(shù)據(jù)。

      2. 使用Mahout工具類進行訓練,得到訓練模型。

      3。將要檢測數(shù)據(jù)轉換成vector數(shù)據(jù)。

      4. 分類器對vector數(shù)據(jù)進行分類。

      接下來貼下我的代碼實現(xiàn)=》

      1. 構造分類數(shù)據(jù):

      在hdfs主要創(chuàng)建一個文件夾路徑 /zhoujainfeng/playtennis/input 并將分類文件夾 no 和 yes 的數(shù)據(jù)傳到hdfs上面。

      數(shù)據(jù)文件格式,如D1文件內容: Sunny Hot High Weak

      2. 使用Mahout工具類進行訓練,得到訓練模型。

      3。將要檢測數(shù)據(jù)轉換成vector數(shù)據(jù)。

      4. 分類器對vector數(shù)據(jù)進行分類。

      這三步,代碼我就一次全貼出來;主要是兩個類 PlayTennis1 和 BayesCheckData = =》

      package myTesting.bayes;

      import org.apache.hadoop.conf.Configuration;

      import org.apache.hadoop.fs.FileSystem;

      import org.apache.hadoop.fs.Path;

      import org.apache.hadoop.util.ToolRunner;

      import org.apache.mahout.classifier.naivebayes.training.TrainNaiveBayesJob;

      import org.apache.mahout.text.SequenceFilesFromDirectory;

      import org.apache.mahout.vectorizer.SparseVectorsFromSequenceFiles;

      public class PlayTennis1 {

      private static final String WORK_DIR = "hdfs://192.168.9.72:9000/zhoujianfeng/playtennis";

      /*

      * 測試代碼

      */

      public static void main(String[] args) {

      //將訓練數(shù)據(jù)轉換成 vector數(shù)據(jù)

      makeTrainVector();

      //產(chǎn)生訓練模型

      makeModel(false);

      //測試檢測數(shù)據(jù)

      BayesCheckData.printResult();

      }

      public static void makeCheckVector(){

      //將測試數(shù)據(jù)轉換成序列化文件

      try {

      Configuration conf = new Configuration();

      conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

      String input = WORK_DIR+Path.SEPARATOR+"testinput";

      String output = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";

      Path in = new Path(input);

      Path out = new Path(output);

      FileSystem fs = FileSystem.get(conf);

      if(fs.exists(in)){

      if(fs.exists(out)){

      //boolean參數(shù)是,是否遞歸刪除的意思

      fs.delete(out, true);

      }

      SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();

      String[] params = new String[]{"-i",input,"-o",output,"-ow"};

      ToolRunner.run(sffd, params);

      }

      } catch (Exception e) {

      // TODO Auto-generated catch block

      e.printStackTrace();

      System.out.println("文件序列化失敗!");

      System.exit(1);

      }

      //將序列化文件轉換成向量文件

      try {

      Configuration conf = new Configuration();

      conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

      String input = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";

      String output = WORK_DIR+Path.SEPARATOR+"tennis-test-vectors";

      Path in = new Path(input);

      Path out = new Path(output);

      FileSystem fs = FileSystem.get(conf);

      if(fs.exists(in)){

      if(fs.exists(out)){

      //boolean參數(shù)是,是否遞歸刪除的意思

      fs.delete(out, true);

      }

      SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();

      String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};

      ToolRunner.run(svfsf, params);

      }

      } catch (Exception e) {

      // TODO Auto-generated catch block

      e.printStackTrace();

      System.out.println("序列化文件轉換成向量失敗!");

      System.out.println(2);

      }

      }

      public static void makeTrainVector(){

      //將測試數(shù)據(jù)轉換成序列化文件

      try {

      Configuration conf = new Configuration();

      conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

      String input = WORK_DIR+Path.SEPARATOR+"input";

      String output = WORK_DIR+Path.SEPARATOR+"tennis-seq";

      Path in = new Path(input);

      Path out = new Path(output);

      FileSystem fs = FileSystem.get(conf);

      if(fs.exists(in)){

      if(fs.exists(out)){

      //boolean參數(shù)是,是否遞歸刪除的意思

      fs.delete(out, true);

      }

      SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();

      String[] params = new String[]{"-i",input,"-o",output,"-ow"};

      ToolRunner.run(sffd, params);

      }

      } catch (Exception e) {

      // TODO Auto-generated catch block

      e.printStackTrace();

      System.out.println("文件序列化失敗!");

      System.exit(1);

      }

      //將序列化文件轉換成向量文件

      try {

      Configuration conf = new Configuration();

      conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

      String input = WORK_DIR+Path.SEPARATOR+"tennis-seq";

      String output = WORK_DIR+Path.SEPARATOR+"tennis-vectors";

      Path in = new Path(input);

      Path out = new Path(output);

      FileSystem fs = FileSystem.get(conf);

      if(fs.exists(in)){

      if(fs.exists(out)){

      //boolean參數(shù)是,是否遞歸刪除的意思

      fs.delete(out, true);

      }

      SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();

      String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};

      ToolRunner.run(svfsf, params);

      }

      } catch (Exception e) {

      // TODO Auto-generated catch block

      e.printStackTrace();

      System.out.println("序列化文件轉換成向量失敗!");

      System.out.println(2);

      }

      }

      public static void makeModel(boolean completelyNB){

      try {

      Configuration conf = new Configuration();

      conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

      String input = WORK_DIR+Path.SEPARATOR+"tennis-vectors"+Path.SEPARATOR+"tfidf-vectors";

      String model = WORK_DIR+Path.SEPARATOR+"model";

      String labelindex = WORK_DIR+Path.SEPARATOR+"labelindex";

      Path in = new Path(input);

      Path out = new Path(model);

      Path label = new Path(labelindex);

      FileSystem fs = FileSystem.get(conf);

      if(fs.exists(in)){

      if(fs.exists(out)){

      //boolean參數(shù)是,是否遞歸刪除的意思

      fs.delete(out, true);

      }

      if(fs.exists(label)){

      //boolean參數(shù)是,是否遞歸刪除的意思

      fs.delete(label, true);

      }

      TrainNaiveBayesJob tnbj = new TrainNaiveBayesJob();

      String[] params =null;

      if(completelyNB){

      params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow","-c"};

      }else{

      params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow"};

      }

      ToolRunner.run(tnbj, params);

      }

      } catch (Exception e) {

      // TODO Auto-generated catch block

      e.printStackTrace();

      System.out.println("生成訓練模型失敗!");

      System.exit(3);

      }

      }

      }

      package myTesting.bayes;

      import java.io.IOException;

      import java.util.HashMap;

      import java.util.Map;

      import org.apache.commons.lang.StringUtils;

      import org.apache.hadoop.conf.Configuration;

      import org.apache.hadoop.fs.Path;

      import org.apache.hadoop.fs.PathFilter;

      import org.apache.hadoop.io.IntWritable;

      import org.apache.hadoop.io.LongWritable;

      import org.apache.hadoop.io.Text;

      import org.apache.mahout.classifier.naivebayes.BayesUtils;

      import org.apache.mahout.classifier.naivebayes.NaiveBayesModel;

      import org.apache.mahout.classifier.naivebayes.StandardNaiveBayesClassifier;

      import org.apache.mahout.common.Pair;

      import org.apache.mahout.common.iterator.sequencefile.PathType;

      import org.apache.mahout.common.iterator.sequencefile.SequenceFileDirIterable;

      import org.apache.mahout.math.RandomAccessSparseVector;

      import org.apache.mahout.math.Vector;

      import org.apache.mahout.math.Vector.Element;

      import org.apache.mahout.vectorizer.TFIDF;

      import com.google.common.collect.ConcurrentHashMultiset;

      import com.google.common.collect.Multiset;

      public class BayesCheckData {

      private static StandardNaiveBayesClassifier classifier;

      private static Map<String, Integer> dictionary;

      private static Map<Integer, Long> documentFrequency;

      private static Map<Integer, String> labelIndex;

      public void init(Configuration conf){

      try {

      String modelPath = "/zhoujianfeng/playtennis/model";

      String dictionaryPath = "/zhoujianfeng/playtennis/tennis-vectors/dictionary.file-0";

      String documentFrequencyPath = "/zhoujianfeng/playtennis/tennis-vectors/df-count";

      String labelIndexPath = "/zhoujianfeng/playtennis/labelindex";

      dictionary = readDictionnary(conf, new Path(dictionaryPath));

      documentFrequency = readDocumentFrequency(conf, new Path(documentFrequencyPath));

      labelIndex = BayesUtils.readLabelIndex(conf, new Path(labelIndexPath));

      NaiveBayesModel model = NaiveBayesModel.materialize(new Path(modelPath), conf);

      classifier = new StandardNaiveBayesClassifier(model);

      } catch (IOException e) {

      // TODO Auto-generated catch block

      e.printStackTrace();

      System.out.println("檢測數(shù)據(jù)構造成vectors初始化時報錯。。。。");

      System.exit(4);

      }

      }

      /**

      * 加載字典文件,Key: TermValue; Value:TermID

      * @param conf

      * @param dictionnaryDir

      * @return

      */

      private static Map<String, Integer> readDictionnary(Configuration conf, Path dictionnaryDir) {

      Map<String, Integer> dictionnary = new HashMap<String, Integer>();

      PathFilter filter = new PathFilter() {

      @Override

      public boolean accept(Path path) {

      String name = path.getName();

      return name.startsWith("dictionary.file");

      }

      };

      for (Pair<Text, IntWritable> pair : new SequenceFileDirIterable<Text, IntWritable>(dictionnaryDir, PathType.LIST, filter, conf)) {

      dictionnary.put(pair.getFirst().toString(), pair.getSecond().get());

      }

      return dictionnary;

      }

      /**

      * 加載df-count目錄下TermDoc頻率文件,Key: TermID; Value:DocFreq

      * @param conf

      * @param dictionnaryDir

      * @return

      */

      private static Map<Integer, Long> readDocumentFrequency(Configuration conf, Path documentFrequencyDir) {

      Map<Integer, Long> documentFrequency = new HashMap<Integer, Long>();

      PathFilter filter = new PathFilter() {

      @Override

      public boolean accept(Path path) {

      return path.getName().startsWith("part-r");

      }

      };

      for (Pair<IntWritable, LongWritable> pair : new SequenceFileDirIterable<IntWritable, LongWritable>(documentFrequencyDir, PathType.LIST, filter, conf)) {

      documentFrequency.put(pair.getFirst().get(), pair.getSecond().get());

      }

      return documentFrequency;

      }

      public static String getCheckResult(){

      Configuration conf = new Configuration();

      conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

      String classify = "NaN";

      BayesCheckData cdv = new BayesCheckData();

      cdv.init(conf);

      System.out.println("init done...............");

      Vector vector = new RandomAccessSparseVector(10000);

      TFIDF tfidf = new TFIDF();

      //sunny,hot,high,weak

      Multiset<String> words = ConcurrentHashMultiset.create();

      words.add("sunny",1);

      words.add("hot",1);

      words.add("high",1);

      words.add("weak",1);

      int documentCount = documentFrequency.get(-1).intValue(); // key=-1時表示總文檔數(shù)

      for (Multiset.Entry<String> entry : words.entrySet()) {

      String word = entry.getElement();

      int count = entry.getCount();

      Integer wordId = dictionary.get(word); // 需要從dictionary.file-0文件(tf-vector)下得到wordID,

      if (StringUtils.isEmpty(wordId.toString())){

      continue;

      }

      if (documentFrequency.get(wordId) == null){

      continue;

      }

      Long freq = documentFrequency.get(wordId);

      double tfIdfValue = tfidf.calculate(count, freq.intValue(), 1, documentCount);

      vector.setQuick(wordId, tfIdfValue);

      }

      // 利用貝葉斯算法開始分類,并提取得分最好的分類label

      Vector resultVector = classifier.classifyFull(vector);

      double bestScore = -Double.MAX_VALUE;

      int bestCategoryId = -1;

      for(Element element: resultVector.all()) {

      int categoryId = element.index();

      double score = element.get();

      System.out.println("categoryId:"+categoryId+" score:"+score);

      if (score > bestScore) {

      bestScore = score;

      bestCategoryId = categoryId;

      }

      }

      classify = labelIndex.get(bestCategoryId)+"(categoryId="+bestCategoryId+")";

      return classify;

      }

      public static void printResult(){

      System.out.println("檢測所屬類別是:"+getCheckResult());

      }

      }

      相關資訊
      熱門頻道

      Copyright © 2024 招聘街 滇ICP備2024020316號-38

      国内精品久久久久_亚洲区手机在线中文无码播放_国内精品久久久久影院一蜜桃_日韩内射激情视频在线播放免费

        分宜县| 宜兰市| 雷波县| 台南市| 修文县| 桓台县| 澄迈县| 若尔盖县| 达孜县| 旬阳县| 墨江| 金坛市| 阳江市| 南华县| 武汉市| 汝城县| 玛多县| 子洲县| 江门市| 当阳市| 卓尼县| 房产| 泊头市| 河南省| 崇信县| 雷波县| 镇平县| 福泉市| 扬州市| 卓尼县| 东城区| 金阳县| 大安市| 奉新县| 株洲县| 温宿县| 遵化市| 奉贤区| 尼勒克县| 宣化县| 桐乡市|