国内精品久久久久_亚洲区手机在线中文无码播放_国内精品久久久久影院一蜜桃_日韩内射激情视频在线播放免费

      thoughtworks公司介紹?

      時間:2024-09-20 10:21 人氣:0 編輯:招聘街

      一、thoughtworks公司介紹?

      Thoughtworks是一家創(chuàng)辦于1993年的全球性軟件及咨詢公司,致力于用科技驅(qū)動商業(yè)變革,針對全球客戶數(shù)字化業(yè)務(wù)提供專業(yè)組織轉(zhuǎn)型咨詢、創(chuàng)新軟件交付、用戶體驗(yàn)設(shè)計、產(chǎn)品及一體化解決方案等服務(wù)。

      客戶遍及全球汽車、金融保險、醫(yī)療、旅游、運(yùn)輸、零售、電商、能源、公共事業(yè)等領(lǐng)域。在澳大利亞、中國、厄瓜多爾、德國、印度、意大利等17個國家設(shè)立48個辦公室,擁有超過9000名員工。

      二、thoughtworks怎么樣?

      thoughtworks是一家創(chuàng)辦于1993年的全球性軟件及咨詢公司,致力于用科技驅(qū)動商業(yè)變革,針對全球客戶數(shù)字化業(yè)務(wù)提供專業(yè)組織轉(zhuǎn)型咨詢、創(chuàng)新軟件交付、用戶體驗(yàn)設(shè)計、產(chǎn)品及一體化解決方案等服務(wù)。

      客戶遍及全球汽車、金融保險、醫(yī)療、旅游、運(yùn)輸、零售、電商、能源、公共事業(yè)等領(lǐng)域。在澳大利亞、中國、厄瓜多爾、德國、印度、意大利等17個國家設(shè)立48個辦公室,擁有超過9000名員工。

      三、thoughtworks是外包嗎?

      是的,思特沃克本質(zhì)上是外包公司。雖然思特沃克的自我定位是高級外包,但其本質(zhì)上就是外包公司。外包的本質(zhì)就是外包,而思特沃克則是外包公司。在思特沃克的工作中,員工需要接受公司提供的培訓(xùn)和指導(dǎo),但如果員工的能力不達(dá)標(biāo),則需要被拉入各種項(xiàng)目,這些項(xiàng)目可能涉及技術(shù)。

      四、thoughtworks公司靠譜嗎?

      靠譜。

      Thoughtworks是一家創(chuàng)辦于1993年的全球性軟件及咨詢公司,致力于用科技驅(qū)動商業(yè)變革,針對全球客戶數(shù)字化業(yè)務(wù)提供專業(yè)組織轉(zhuǎn)型咨詢、創(chuàng)新軟件交付、用戶體驗(yàn)設(shè)計、產(chǎn)品及一體化解決方案等服務(wù)。客戶遍及全球汽車、金融保險、醫(yī)療、旅游、運(yùn)輸、零售、電商、能源、公共事業(yè)等領(lǐng)域。

      在澳大利亞、中國、厄瓜多爾、德國、印度、意大利等17個國家設(shè)立48個辦公室,擁有超過9000名員工。2004年進(jìn)入中國,已在北京、西安、成都、上海、武漢、深圳及香港等地設(shè)立七個辦公室,擁有超過2000名員工。Thoughtworks的業(yè)務(wù)模式主要通過咨詢幫助改善企業(yè)的IT組織,改進(jìn)軟件開發(fā)方法,以軟件帶動企業(yè)業(yè)務(wù)發(fā)展。Thoughtworks為客戶提供集創(chuàng)意設(shè)計、開發(fā)及交付為一體的定制服務(wù)。而且隨著企業(yè)知識處理能力發(fā)展需求不斷提升,知識流程外包(KPO)越來越成為被行業(yè)認(rèn)可的熱點(diǎn)模式,而Thoughtworks對于KPO的核心-戰(zhàn)略性的關(guān)鍵IT系統(tǒng)交付同樣經(jīng)驗(yàn)豐富。

      五、thoughtworks成都待遇怎么樣?

      工資待遇:¥30000-50000

      崗位內(nèi)容:

      1.研究并理解軟件工程領(lǐng)域技術(shù)趨勢,挖掘并揭示客戶的痛點(diǎn)和訴求

      2.對研發(fā)過程有深刻理解,具備一定高度抽象能力,摒棄細(xì)節(jié)探求本質(zhì)

      3.熟悉不同類型的研發(fā)體系,例如應(yīng)用系統(tǒng),移動端開發(fā),數(shù)據(jù)型項(xiàng)目等

      4.能夠總結(jié)對應(yīng)的的工程優(yōu)秀實(shí)踐,結(jié)合工具提供完整的解決方案,幫助客戶進(jìn)行設(shè)計規(guī)劃和落地希望是:

      1.對軟件設(shè)計和架構(gòu)有深刻的思考,如果有數(shù)據(jù)挖掘和分析或者統(tǒng)計學(xué)背景優(yōu)先。

      2.開放且樂于溝通和合作,強(qiáng)調(diào)團(tuán)隊協(xié)作3.良好的對內(nèi)對外溝通能力以及面對客戶的能力4接受一定比例的出差5英語具備讀寫能力。

      六、thoughtworks是外包公司嗎?

      是外包公司。

      thoutworks是一家專業(yè)的軟件外包公司,提供軟件開發(fā)、測試、維護(hù)等服務(wù)。

      他們有專業(yè)的團(tuán)隊和豐富的項(xiàng)目經(jīng)驗(yàn),通過與客戶合作,為他們提供高質(zhì)量的解決方案和定制化的軟件開發(fā)服務(wù)。

      作為外包公司,thoutworks與客戶進(jìn)行合作,幫助客戶實(shí)現(xiàn)各種軟件開發(fā)需求。

      他們的專業(yè)團(tuán)隊可以根據(jù)客戶的要求進(jìn)行定制開發(fā),同時也能提供軟件測試、項(xiàng)目迭代和維護(hù)等服務(wù)。

      thoutworks的目標(biāo)是以高效、專業(yè)的方式滿足客戶的需求,幫助他們提高業(yè)務(wù)效率

      和競爭力。

      七、thoughtworks公司是做什么的?

      Thoughtworks是?家創(chuàng)辦于1993年的全球性軟件及咨詢公司。追求技術(shù)卓越,致?于?科技驅(qū)動商業(yè)變?,為世界創(chuàng)造?凡影響。針對全球頂尖客戶數(shù)字化業(yè)務(wù)提供專業(yè)組織轉(zhuǎn)型咨詢、創(chuàng)新軟件交付、?戶體驗(yàn)設(shè)計、產(chǎn)品及?體化解決?案等服務(wù)。客戶遍及全球汽?、?融保險、醫(yī)療、旅游、運(yùn)輸、零售、電商、能源、公共事業(yè)等領(lǐng)域

      八、thoughtworks是世界五百強(qiáng)嗎?

      thoughtworks是世界五百強(qiáng)企業(yè)。全球軟件設(shè)計與定制 企業(yè)ThoughtWorks是與谷歌齊名的IT企業(yè),目前在美國、英國、澳大利亞、加拿大、德國、印度、巴西、南非、中國等十個國家成立分公司,聘用超過2000位行業(yè)精英,員工招聘體系比谷歌更為嚴(yán)苛,主要服務(wù)英特爾、惠普等 企業(yè)。

      九、在Thoughtworks工作能學(xué)到哪些技術(shù)和經(jīng)驗(yàn)?

      先說明下,這不是廣告,咱也沒廣告費(fèi),客觀說點(diǎn)觀察到的優(yōu)勢。

      在thoughtworks工作,能學(xué)到技術(shù)什么的就不多說了,作為一家技術(shù)公司,技術(shù)是根本,來說說其他亮點(diǎn),尤其是在大多數(shù)普通公司學(xué)不到的。

      在大多數(shù)公司,員工比較難找到施展自己才才華的舞臺,在thoughtworks可以。tw鼓勵員工以多種形式樹立個人影響力,項(xiàng)目內(nèi)部帶buddy,積累知識沉淀,團(tuán)隊內(nèi)部做各種分享活動,對外寫書,組織各種豐富的社區(qū)活動,甚至到各種大會上公開演講,只要你有意愿,發(fā)揚(yáng)自己,發(fā)光發(fā)熱,公司都會給予各種支持。

      大多數(shù)公司,技術(shù)人員都是螺絲釘,在thoughtworks不是。很多公司的技術(shù)團(tuán)隊是根據(jù)層級劃分,有部門墻,在tw的各種項(xiàng)目里,不論你是開發(fā),還是設(shè)計師,還是ba,都可以從一開始需求分析到產(chǎn)品開發(fā)上線全程參與到各種分析和討論里去,打破層級和部門墻,在客戶現(xiàn)場和客戶團(tuán)隊的各種領(lǐng)導(dǎo)們一起開會、討論需求是家常便飯。

      大多數(shù)公司,人才培養(yǎng)十分薄弱,有的公司只希望員工產(chǎn)出,有的公司只有少數(shù)領(lǐng)導(dǎo)層或者混到高級別才有機(jī)會參與一些培訓(xùn)。在tw全年,全國各地office不知道發(fā)生過多少場培訓(xùn),而且培訓(xùn)內(nèi)容多種多樣,可以說是發(fā)自肺腑的希望幫助每一個員工健康成長。除此之外,tw的一項(xiàng)福利是每年提供幾千元的培訓(xùn)經(jīng)費(fèi),福利大家采購書籍,學(xué)習(xí)和提升自己。業(yè)界各種大型conference也都會有人參加,并且把內(nèi)容帶回tw內(nèi)部,轉(zhuǎn)化為知識沉淀和分享。

      先寫到這吧,嘻嘻。

      十、mahout面試題?

      之前看了Mahout官方示例 20news 的調(diào)用實(shí)現(xiàn);于是想根據(jù)示例的流程實(shí)現(xiàn)其他例子。網(wǎng)上看到了一個關(guān)于天氣適不適合打羽毛球的例子。

      訓(xùn)練數(shù)據(jù):

      Day Outlook Temperature Humidity Wind PlayTennis

      D1 Sunny Hot High Weak No

      D2 Sunny Hot High Strong No

      D3 Overcast Hot High Weak Yes

      D4 Rain Mild High Weak Yes

      D5 Rain Cool Normal Weak Yes

      D6 Rain Cool Normal Strong No

      D7 Overcast Cool Normal Strong Yes

      D8 Sunny Mild High Weak No

      D9 Sunny Cool Normal Weak Yes

      D10 Rain Mild Normal Weak Yes

      D11 Sunny Mild Normal Strong Yes

      D12 Overcast Mild High Strong Yes

      D13 Overcast Hot Normal Weak Yes

      D14 Rain Mild High Strong No

      檢測數(shù)據(jù):

      sunny,hot,high,weak

      結(jié)果:

      Yes=》 0.007039

      No=》 0.027418

      于是使用Java代碼調(diào)用Mahout的工具類實(shí)現(xiàn)分類。

      基本思想:

      1. 構(gòu)造分類數(shù)據(jù)。

      2. 使用Mahout工具類進(jìn)行訓(xùn)練,得到訓(xùn)練模型。

      3。將要檢測數(shù)據(jù)轉(zhuǎn)換成vector數(shù)據(jù)。

      4. 分類器對vector數(shù)據(jù)進(jìn)行分類。

      接下來貼下我的代碼實(shí)現(xiàn)=》

      1. 構(gòu)造分類數(shù)據(jù):

      在hdfs主要創(chuàng)建一個文件夾路徑 /zhoujainfeng/playtennis/input 并將分類文件夾 no 和 yes 的數(shù)據(jù)傳到hdfs上面。

      數(shù)據(jù)文件格式,如D1文件內(nèi)容: Sunny Hot High Weak

      2. 使用Mahout工具類進(jìn)行訓(xùn)練,得到訓(xùn)練模型。

      3。將要檢測數(shù)據(jù)轉(zhuǎn)換成vector數(shù)據(jù)。

      4. 分類器對vector數(shù)據(jù)進(jìn)行分類。

      這三步,代碼我就一次全貼出來;主要是兩個類 PlayTennis1 和 BayesCheckData = =》

      package myTesting.bayes;

      import org.apache.hadoop.conf.Configuration;

      import org.apache.hadoop.fs.FileSystem;

      import org.apache.hadoop.fs.Path;

      import org.apache.hadoop.util.ToolRunner;

      import org.apache.mahout.classifier.naivebayes.training.TrainNaiveBayesJob;

      import org.apache.mahout.text.SequenceFilesFromDirectory;

      import org.apache.mahout.vectorizer.SparseVectorsFromSequenceFiles;

      public class PlayTennis1 {

      private static final String WORK_DIR = "hdfs://192.168.9.72:9000/zhoujianfeng/playtennis";

      /*

      * 測試代碼

      */

      public static void main(String[] args) {

      //將訓(xùn)練數(shù)據(jù)轉(zhuǎn)換成 vector數(shù)據(jù)

      makeTrainVector();

      //產(chǎn)生訓(xùn)練模型

      makeModel(false);

      //測試檢測數(shù)據(jù)

      BayesCheckData.printResult();

      }

      public static void makeCheckVector(){

      //將測試數(shù)據(jù)轉(zhuǎn)換成序列化文件

      try {

      Configuration conf = new Configuration();

      conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

      String input = WORK_DIR+Path.SEPARATOR+"testinput";

      String output = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";

      Path in = new Path(input);

      Path out = new Path(output);

      FileSystem fs = FileSystem.get(conf);

      if(fs.exists(in)){

      if(fs.exists(out)){

      //boolean參數(shù)是,是否遞歸刪除的意思

      fs.delete(out, true);

      }

      SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();

      String[] params = new String[]{"-i",input,"-o",output,"-ow"};

      ToolRunner.run(sffd, params);

      }

      } catch (Exception e) {

      // TODO Auto-generated catch block

      e.printStackTrace();

      System.out.println("文件序列化失敗!");

      System.exit(1);

      }

      //將序列化文件轉(zhuǎn)換成向量文件

      try {

      Configuration conf = new Configuration();

      conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

      String input = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";

      String output = WORK_DIR+Path.SEPARATOR+"tennis-test-vectors";

      Path in = new Path(input);

      Path out = new Path(output);

      FileSystem fs = FileSystem.get(conf);

      if(fs.exists(in)){

      if(fs.exists(out)){

      //boolean參數(shù)是,是否遞歸刪除的意思

      fs.delete(out, true);

      }

      SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();

      String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};

      ToolRunner.run(svfsf, params);

      }

      } catch (Exception e) {

      // TODO Auto-generated catch block

      e.printStackTrace();

      System.out.println("序列化文件轉(zhuǎn)換成向量失敗!");

      System.out.println(2);

      }

      }

      public static void makeTrainVector(){

      //將測試數(shù)據(jù)轉(zhuǎn)換成序列化文件

      try {

      Configuration conf = new Configuration();

      conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

      String input = WORK_DIR+Path.SEPARATOR+"input";

      String output = WORK_DIR+Path.SEPARATOR+"tennis-seq";

      Path in = new Path(input);

      Path out = new Path(output);

      FileSystem fs = FileSystem.get(conf);

      if(fs.exists(in)){

      if(fs.exists(out)){

      //boolean參數(shù)是,是否遞歸刪除的意思

      fs.delete(out, true);

      }

      SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();

      String[] params = new String[]{"-i",input,"-o",output,"-ow"};

      ToolRunner.run(sffd, params);

      }

      } catch (Exception e) {

      // TODO Auto-generated catch block

      e.printStackTrace();

      System.out.println("文件序列化失敗!");

      System.exit(1);

      }

      //將序列化文件轉(zhuǎn)換成向量文件

      try {

      Configuration conf = new Configuration();

      conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

      String input = WORK_DIR+Path.SEPARATOR+"tennis-seq";

      String output = WORK_DIR+Path.SEPARATOR+"tennis-vectors";

      Path in = new Path(input);

      Path out = new Path(output);

      FileSystem fs = FileSystem.get(conf);

      if(fs.exists(in)){

      if(fs.exists(out)){

      //boolean參數(shù)是,是否遞歸刪除的意思

      fs.delete(out, true);

      }

      SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();

      String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};

      ToolRunner.run(svfsf, params);

      }

      } catch (Exception e) {

      // TODO Auto-generated catch block

      e.printStackTrace();

      System.out.println("序列化文件轉(zhuǎn)換成向量失敗!");

      System.out.println(2);

      }

      }

      public static void makeModel(boolean completelyNB){

      try {

      Configuration conf = new Configuration();

      conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

      String input = WORK_DIR+Path.SEPARATOR+"tennis-vectors"+Path.SEPARATOR+"tfidf-vectors";

      String model = WORK_DIR+Path.SEPARATOR+"model";

      String labelindex = WORK_DIR+Path.SEPARATOR+"labelindex";

      Path in = new Path(input);

      Path out = new Path(model);

      Path label = new Path(labelindex);

      FileSystem fs = FileSystem.get(conf);

      if(fs.exists(in)){

      if(fs.exists(out)){

      //boolean參數(shù)是,是否遞歸刪除的意思

      fs.delete(out, true);

      }

      if(fs.exists(label)){

      //boolean參數(shù)是,是否遞歸刪除的意思

      fs.delete(label, true);

      }

      TrainNaiveBayesJob tnbj = new TrainNaiveBayesJob();

      String[] params =null;

      if(completelyNB){

      params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow","-c"};

      }else{

      params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow"};

      }

      ToolRunner.run(tnbj, params);

      }

      } catch (Exception e) {

      // TODO Auto-generated catch block

      e.printStackTrace();

      System.out.println("生成訓(xùn)練模型失敗!");

      System.exit(3);

      }

      }

      }

      package myTesting.bayes;

      import java.io.IOException;

      import java.util.HashMap;

      import java.util.Map;

      import org.apache.commons.lang.StringUtils;

      import org.apache.hadoop.conf.Configuration;

      import org.apache.hadoop.fs.Path;

      import org.apache.hadoop.fs.PathFilter;

      import org.apache.hadoop.io.IntWritable;

      import org.apache.hadoop.io.LongWritable;

      import org.apache.hadoop.io.Text;

      import org.apache.mahout.classifier.naivebayes.BayesUtils;

      import org.apache.mahout.classifier.naivebayes.NaiveBayesModel;

      import org.apache.mahout.classifier.naivebayes.StandardNaiveBayesClassifier;

      import org.apache.mahout.common.Pair;

      import org.apache.mahout.common.iterator.sequencefile.PathType;

      import org.apache.mahout.common.iterator.sequencefile.SequenceFileDirIterable;

      import org.apache.mahout.math.RandomAccessSparseVector;

      import org.apache.mahout.math.Vector;

      import org.apache.mahout.math.Vector.Element;

      import org.apache.mahout.vectorizer.TFIDF;

      import com.google.common.collect.ConcurrentHashMultiset;

      import com.google.common.collect.Multiset;

      public class BayesCheckData {

      private static StandardNaiveBayesClassifier classifier;

      private static Map<String, Integer> dictionary;

      private static Map<Integer, Long> documentFrequency;

      private static Map<Integer, String> labelIndex;

      public void init(Configuration conf){

      try {

      String modelPath = "/zhoujianfeng/playtennis/model";

      String dictionaryPath = "/zhoujianfeng/playtennis/tennis-vectors/dictionary.file-0";

      String documentFrequencyPath = "/zhoujianfeng/playtennis/tennis-vectors/df-count";

      String labelIndexPath = "/zhoujianfeng/playtennis/labelindex";

      dictionary = readDictionnary(conf, new Path(dictionaryPath));

      documentFrequency = readDocumentFrequency(conf, new Path(documentFrequencyPath));

      labelIndex = BayesUtils.readLabelIndex(conf, new Path(labelIndexPath));

      NaiveBayesModel model = NaiveBayesModel.materialize(new Path(modelPath), conf);

      classifier = new StandardNaiveBayesClassifier(model);

      } catch (IOException e) {

      // TODO Auto-generated catch block

      e.printStackTrace();

      System.out.println("檢測數(shù)據(jù)構(gòu)造成vectors初始化時報錯。。。。");

      System.exit(4);

      }

      }

      /**

      * 加載字典文件,Key: TermValue; Value:TermID

      * @param conf

      * @param dictionnaryDir

      * @return

      */

      private static Map<String, Integer> readDictionnary(Configuration conf, Path dictionnaryDir) {

      Map<String, Integer> dictionnary = new HashMap<String, Integer>();

      PathFilter filter = new PathFilter() {

      @Override

      public boolean accept(Path path) {

      String name = path.getName();

      return name.startsWith("dictionary.file");

      }

      };

      for (Pair<Text, IntWritable> pair : new SequenceFileDirIterable<Text, IntWritable>(dictionnaryDir, PathType.LIST, filter, conf)) {

      dictionnary.put(pair.getFirst().toString(), pair.getSecond().get());

      }

      return dictionnary;

      }

      /**

      * 加載df-count目錄下TermDoc頻率文件,Key: TermID; Value:DocFreq

      * @param conf

      * @param dictionnaryDir

      * @return

      */

      private static Map<Integer, Long> readDocumentFrequency(Configuration conf, Path documentFrequencyDir) {

      Map<Integer, Long> documentFrequency = new HashMap<Integer, Long>();

      PathFilter filter = new PathFilter() {

      @Override

      public boolean accept(Path path) {

      return path.getName().startsWith("part-r");

      }

      };

      for (Pair<IntWritable, LongWritable> pair : new SequenceFileDirIterable<IntWritable, LongWritable>(documentFrequencyDir, PathType.LIST, filter, conf)) {

      documentFrequency.put(pair.getFirst().get(), pair.getSecond().get());

      }

      return documentFrequency;

      }

      public static String getCheckResult(){

      Configuration conf = new Configuration();

      conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

      String classify = "NaN";

      BayesCheckData cdv = new BayesCheckData();

      cdv.init(conf);

      System.out.println("init done...............");

      Vector vector = new RandomAccessSparseVector(10000);

      TFIDF tfidf = new TFIDF();

      //sunny,hot,high,weak

      Multiset<String> words = ConcurrentHashMultiset.create();

      words.add("sunny",1);

      words.add("hot",1);

      words.add("high",1);

      words.add("weak",1);

      int documentCount = documentFrequency.get(-1).intValue(); // key=-1時表示總文檔數(shù)

      for (Multiset.Entry<String> entry : words.entrySet()) {

      String word = entry.getElement();

      int count = entry.getCount();

      Integer wordId = dictionary.get(word); // 需要從dictionary.file-0文件(tf-vector)下得到wordID,

      if (StringUtils.isEmpty(wordId.toString())){

      continue;

      }

      if (documentFrequency.get(wordId) == null){

      continue;

      }

      Long freq = documentFrequency.get(wordId);

      double tfIdfValue = tfidf.calculate(count, freq.intValue(), 1, documentCount);

      vector.setQuick(wordId, tfIdfValue);

      }

      // 利用貝葉斯算法開始分類,并提取得分最好的分類label

      Vector resultVector = classifier.classifyFull(vector);

      double bestScore = -Double.MAX_VALUE;

      int bestCategoryId = -1;

      for(Element element: resultVector.all()) {

      int categoryId = element.index();

      double score = element.get();

      System.out.println("categoryId:"+categoryId+" score:"+score);

      if (score > bestScore) {

      bestScore = score;

      bestCategoryId = categoryId;

      }

      }

      classify = labelIndex.get(bestCategoryId)+"(categoryId="+bestCategoryId+")";

      return classify;

      }

      public static void printResult(){

      System.out.println("檢測所屬類別是:"+getCheckResult());

      }

      }

      相關(guān)資訊
      熱門頻道

      Copyright © 2024 招聘街 滇ICP備2024020316號-38

      国内精品久久久久_亚洲区手机在线中文无码播放_国内精品久久久久影院一蜜桃_日韩内射激情视频在线播放免费

        德阳市| 安新县| 喜德县| 天气| 紫金县| 永济市| 岳普湖县| 连平县| 仲巴县| 遵义县| 阜新市| 曲周县| 金塔县| 利辛县| 金塔县| 张掖市| 拜泉县| 闵行区| 胶南市| 江山市| 望谟县| 会东县| 曲水县| 南京市| 静海县| 房产| 桐梓县| 芦溪县| 高邑县| 贡山| 天长市| 拉萨市| 青铜峡市| 保德县| 绵阳市| 江西省| 闵行区| 贡山| 延寿县| 鄂伦春自治旗| 西峡县|