精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

仿造百度實現基于Lucene.net全文檢索

開發 后端
Lucene.Net只能對文本信息進行檢索。如果不是文本信息,要轉換為文本信息,比如要檢索Excel文件,就要用NPOI把Excel讀取成字符串,然后把字符串扔給Lucene.Net。

Lucene.Net

Lucene.net是Lucene的.net移植版本,是一個開源的全文檢索引擎開發包,即它不是一個完整的全文檢索引擎,而是一個全文檢索引擎的架構,是一個Library.你也可以把它理解為一個將索引,搜索功能封裝的很好的一套簡單易用的API(提供了完整的查詢引擎和索引引擎)。利用這套API你可以做很多有關搜索的事情,而且很方便.。開發人員可以基于Lucene.net實現全文檢索的功能。

注意:Lucene.Net只能對文本信息進行檢索。如果不是文本信息,要轉換為文本信息,比如要檢索Excel文件,就要用NPOI把Excel讀取成字符串,然后把字符串扔給Lucene.Net。Lucene.Net會把扔給它的文本切詞保存,加快檢索速度。

更多概念性的知識可以參考這篇博文:http://blog.csdn.net/xiucool/archive/2008/11/28/3397182.aspx

這個小Demo樣例展示:

ok,接下來就細細詳解下士怎樣一步一步實現這個效果的。

Lucene.Net 核心——分詞算法(Analyzer)

學習Lucune.Net,分詞是核心。當然最理想狀態下是能自己擴展分詞,但這要很高的算法要求。Lucene.Net中不同的分詞算法就是不同的類。所有分詞算法類都從Analyzer類繼承,不同的分詞算法有不同的優缺點。

內置的StandardAnalyzer是將英文按照空格、標點符號等進行分詞,將中文按照單個字進行分詞,一個漢字算一個詞

  1. Analyzer analyzer = new StandardAnalyzer();  
  2. TokenStream tokenStream = analyzer.TokenStream("",new StringReader("Hello Lucene.Net,我1愛1你China"));  
  3. Lucene.Net.Analysis.Token token = null;  
  4. while ((token = tokenStream.Next()) != null)  
  5. {  
  6.     Console.WriteLine(token.TermText());  

分詞后結果:

二元分詞算法,每兩個漢字算一個單詞,“我愛你China”會分詞為“我愛 愛你 china”,點擊查看二元分詞算法CJKAnalyzer。

  1. Analyzer analyzer = new CJKAnalyzer();  
  2. TokenStream tokenStream = analyzer.TokenStream(""new StringReader("我愛你中國China中華人名共和國"));  
  3. Lucene.Net.Analysis.Token token = null;  
  4. while ((token = tokenStream.Next()) != null)  
  5. {  
  6.     Response.Write(token.TermText()+"<br/>");  

這時,你肯定在想,上面沒有一個好用的,二元分詞算法亂槍打鳥,很想自己擴展Analyzer,但并不是算法上的專業人士。怎么辦?

天降圣器,盤古分詞,點擊下載

#p#

Lucene.Net核心類簡介(一)

Directory表示索引文件(Lucene.net用來保存用戶扔過來的數據的地方)保存的地方,是抽象類,兩個子類FSDirectory(文件中)、RAMDirectory (內存中)。

IndexReader對索引進行讀取的類,對IndexWriter進行寫的類。

IndexReader的靜態方法bool IndexExists(Directory directory)判斷目錄directory是否是一個索引目錄。IndexWriter的bool IsLocked(Directory directory) 判斷目錄是否鎖定,在對目錄寫之前會先把目錄鎖定。兩個IndexWriter沒法同時寫一個索引文件。IndexWriter在進行寫操作的時候會自動加鎖,close的時候會自動解鎖。IndexWriter.Unlock方法手動解鎖(比如還沒來得及close IndexWriter 程序就崩潰了,可能造成一直被鎖定)。

創建索引庫操作:

構造函數:IndexWriter(Directory dir, Analyzer a, bool create, MaxFieldLength mfl)因為IndexWriter把輸入寫入索引的時候,Lucene.net是把寫入的文件用指定的分詞器將文章分詞(這樣檢索的時候才能查的快),然后將詞放入索引文件。

void AddDocument(Document doc),向索引中添加文檔(Insert)。Document類代表要索引的文檔(文章),最重要的方法Add(Field field),向文檔中添加字段。Document是一片文檔,Field是字段(屬性)。Document相當于一條記錄,Field相當于字段。

Field類的構造函數 Field(string name, string value, Field.Store store, Field.Index index, Field.TermVector termVector): name表示字段名; value表示字段值; store表示是否存儲value值,可選值 Field.Store.YES存儲, Field.Store.NO不存儲,Field.Store.COMPRESS壓縮存儲;默認只保存分詞以后的一堆詞,而不保存分詞之前的內容,搜索的時候無法根據分詞后的東西還原原文,因此如果要顯示原文(比如文章正文)則需要設置存儲。 index表示如何創建索引,可選值Field.Index. NOT_ANALYZED ,不創建索引,Field.Index. ANALYZED,創建索引;創建索引的字段才可以比較好的檢索。是否碎尸萬段!是否需要按照這個字段進行“全文檢索”。 termVector表示如何保存索引詞之間的距離。“北京歡迎你們大家”,索引中是如何保存“北京”和“大家”之間“隔多少單詞”。方便只檢索在一定距離之內的詞。

  1. private void CreateIndex()  
  2.         {  
  3.             //索引庫存放在這個文件夾里  
  4.             string indexPath = ConfigurationManager.AppSettings["pathIndex"];  
  5.             //Directory表示索引文件保存的地方,是抽象類,兩個子類FSDirectory表示文件中,RAMDirectory 表示存儲在內存中  
  6.             FSDirectory directory = FSDirectory.Open(new DirectoryInfo(indexPath), new NativeFSLockFactory());  
  7.             //判斷目錄directory是否是一個索引目錄。  
  8.             bool isUpdate = IndexReader.IndexExists(directory);  
  9.             logger.Debug("索引庫存在狀態:"+isUpdate);  
  10.             if (isUpdate)  
  11.             {  
  12.                 if (IndexWriter.IsLocked(directory))  
  13.                 {  
  14.                     IndexWriter.Unlock(directory);  
  15.                 }  
  16.             }  
  17.             //第三個參數為是否創建索引文件夾,Bool Create,如果為True,則新創建的索引會覆蓋掉原來的索引文件,反之,則不必創建,更新即可。  
  18.             IndexWriter write = new IndexWriter(directory, new PanGuAnalyzer(), !isUpdate, IndexWriter.MaxFieldLength.UNLIMITED);  
  19.  
  20.             WebClient wc = new WebClient();  
  21.             //編碼,防止亂碼  
  22.             wc.Encoding = Encoding.UTF8;  
  23.             int maxID;  
  24.             try 
  25.             {  
  26.                 //讀取rss,獲得第一個item中的鏈接的編號部分就是最大的帖子編號  
  27.                 maxID = GetMaxID();  
  28.             }  
  29.             catch (WebException webEx)  
  30.             {  
  31.                 logger.Error("獲得最大帖子號出錯",webEx);  
  32.                 return;  
  33.                   
  34.             }  
  35.             for (int i = 1; i <= maxID; i++)  
  36.             {  
  37.                 try 
  38.                 {  
  39.                     string url = "http://localhost:8080/showtopic-" + i + ".aspx";  
  40.                     logger.Debug("開始下載:"+url);  
  41.                     string html = wc.DownloadString(url);  
  42.                     HTMLDocumentClass doc = new HTMLDocumentClass();  
  43.  
  44.                     doc.designMode = "on";//不讓解析引擎嘗試去執行  
  45.                     doc.IHTMLDocument2_write(html);  
  46.                     doc.close();  
  47.  
  48.                     string title = doc.title;  
  49.                     string body = doc.body.innerText;  
  50.                     //為避免重復索引,先輸出number=i的記錄,在重新添加  
  51.                     write.DeleteDocuments(new Term("number", i.ToString()));  
  52.  
  53.                     Document document = new Document();  
  54.                     //Field為字段,只有對全文檢索的字段才分詞,Field.Store是否存儲  
  55.                     document.Add(new Field("number", i.ToString(), Field.Store.YES, Field.Index.NOT_ANALYZED));  
  56.                     document.Add(new Field("title", title, Field.Store.YES, Field.Index.NOT_ANALYZED));  
  57.                     document.Add(new Field("body", body, Field.Store.YES, Field.Index.ANALYZED, Field.TermVector.WITH_POSITIONS_OFFSETS));  
  58.                     write.AddDocument(document);  
  59.                     logger.Debug("索引" + i.ToString() + "完畢");  
  60.                 }  
  61.                 catch (WebException webEx)  
  62.                 {  
  63.  
  64.                     logger.Error("下載"+i.ToString()+"失敗",webEx);  
  65.                 }  
  66.  
  67.             }  
  68.             write.Close();  
  69.             directory.Close();  
  70.             logger.Debug("全部索引完畢");  
  71.         }  
  72.         //取最大帖子號  
  73.         private int GetMaxID()  
  74.         {  
  75.             XDocument xdoc = XDocument.Load("Http://localhost:8080/tools/rss.aspx");  
  76.             XElement channel = xdoc.Root.Element("channel");  
  77.             XElement fitstItem = channel.Elements("item").First();  
  78.             XElement link = fitstItem.Element("link");  
  79.             Match match = Regex.Match(link.Value, @"http://localhost:8080/showtopic-(\d+)\.aspx");  
  80.             string id = match.Groups[1].Value;  
  81.             return Convert.ToInt32(id);  
  82.         } 

這樣就創建了索引庫,利用WebClient爬去所有網頁的內容,這兒需要你添加引用Microsoft mshtml組件,MSHTML是微軟公司的一個COM組件,該組件封裝了HTML語言中的所有元素及其屬性,通過其提供的標準接口,可以訪問指定網頁的所有元素。

當然,創建索引庫最好定時給我們自動創建,類似于Windows計劃任務。

這兒你可以了解Quartz.Net

首先添加對其(我這個版本有兩個,一個是Quartz.dll,還有一個是Common.Logging)的引用,貌似兩個缺一不可,否則會報錯,類似于文件路徑錯誤。

在Global里配置如下:

  1. public class Global : System.Web.HttpApplication  
  2.  {  
  3.      private static ILog logger = LogManager.GetLogger(typeof(Global));  
  4.      private IScheduler sched;  
  5.      protected void Application_Start(object sender, EventArgs e)  
  6.      {  
  7.          //控制臺就放在Main  
  8.          logger.Debug("Application_Start");  
  9.          log4net.Config.XmlConfigurator.Configure();  
  10.          //從配置中讀取任務啟動時間  
  11.          int indexStartHour = Convert.ToInt32(ConfigurationManager.AppSettings["IndexStartHour"]);  
  12.          int indexStartMin = Convert.ToInt32(ConfigurationManager.AppSettings["IndexStartMin"]);  
  13.          ISchedulerFactory sf = new StdSchedulerFactory();  
  14.          sched = sf.GetScheduler();  
  15.          JobDetail job = new JobDetail("job1""group1"typeof(IndexJob));//IndexJob為實現了IJob接口的類  
  16.          Trigger trigger = TriggerUtils.MakeDailyTrigger("tigger1", indexStartHour, indexStartMin);//每天10點3分執行  
  17.          trigger.JobName = "job1";  
  18.          trigger.JobGroup = "group1";  
  19.          trigger.Group = "group1";  
  20.  
  21.          sched.AddJob(job, true);  
  22.          sched.ScheduleJob(trigger);  
  23.          //IIS啟動了就不會來了  
  24.          sched.Start();  
  25.      }  
  26.      protected void Session_Start(object sender, EventArgs e)  
  27.      {  
  28.      }  
  29.      protected void Application_BeginRequest(object sender, EventArgs e)  
  30.      {  
  31.      }  
  32.      protected void Application_AuthenticateRequest(object sender, EventArgs e)  
  33.      {  
  34.      }  
  35.      protected void Application_Error(object sender, EventArgs e)  
  36.      {  
  37.          logger.Debug("網絡出現未處理異常:",HttpContext.Current.Server.GetLastError());  
  38.      }  
  39.      protected void Session_End(object sender, EventArgs e)  
  40.      {  
  41.      }  
  42.      protected void Application_End(object sender, EventArgs e)  
  43.      {  
  44.          logger.Debug("Application_End");  
  45.          sched.Shutdown(true);  
  46.      }  
  47.  } 

最后我們的Job去做任務,但需要實現IJob接口

  1. public class IndexJob:IJob  
  2.     {  
  3.         private ILog logger = LogManager.GetLogger(typeof(IndexJob));  
  4.         public void Execute(JobExecutionContext context)  
  5.         {  
  6.             try 
  7.             {  
  8.                 logger.Debug("索引開始");  
  9.                 CreateIndex();  
  10.                 logger.Debug("索引結束");  
  11.             }  
  12.             catch (Exception ex)  
  13.             {  
  14.                 logger.Debug("啟動索引任務異常", ex);  
  15.             }  
  16.         }  

Ok,我們的索引庫建立完了,接下來就是搜索了。

#p#

Lucene.Net核心類簡介(二)

IndexSearcher是進行搜索的類,構造函數傳遞一個IndexReader。IndexSearcher的void Search(Query query, Filter filter, Collector results)方法用來搜索,Query是查詢條件, filter目前傳遞null, results是檢索結果,TopScoreDocCollector.create(1000, true)方法創建一個Collector,1000表示最多結果條數,Collector就是一個結果收集器。

Query有很多子類,PhraseQuery是一個子類。 PhraseQuery用來進行多個關鍵詞的檢索,調用Add方法添加關鍵詞,query.Add(new Term("字段名", 關鍵詞)),PhraseQuery. SetSlop(int slop)用來設置關鍵詞之間的最大距離,默認是0,設置了Slop以后哪怕文檔中兩個關鍵詞之間沒有緊挨著也能找到。 query.Add(new Term("字段名", 關鍵詞)) query.Add(new Term("字段名", 關鍵詞2)) 類似于:where 字段名 contains 關鍵詞 and 字段名 contais 關鍵詞。

調用TopScoreDocCollector的GetTotalHits()方法得到搜索結果條數,調用Hits的TopDocs TopDocs(int start, int howMany)得到一個范圍內的結果(分頁),TopDocs的scoreDocs字段是結果ScoreDoc數組, ScoreDoc 的doc字段為Lucene.Net為文檔分配的id(為降低內存占用,只先返回文檔id),根據這個id調用searcher的Doc方法就能拿到Document了(放進去的是Document,取出來的也是Document);調用doc.Get("字段名")可以得到文檔指定字段的值,注意只有Store.YES的字段才能得到,因為Store.NO的沒有保存全部內容,只保存了分割后的詞。

搜索的代碼:

查看盤古分詞文檔找到高亮顯示:

  1. private string Preview(string body,string keyword)  
  2.  {  
  3.      PanGu.HighLight.SimpleHTMLFormatter simpleHTMLFormatter = new PanGu.HighLight.SimpleHTMLFormatter("<font color=\"Red\">","</font>");  
  4.      PanGu.HighLight.Highlighter highlighter = new PanGu.HighLight.Highlighter(simpleHTMLFormatter, new Segment());  
  5.      highlighter.FragmentSize = 100;  
  6.      string bodyPreview = highlighter.GetBestFragment(keyword, body);  
  7.      return bodyPreview;  
  8.  } 

因為我們頁面剛進入需要加載熱詞,為了減輕服務端壓力,緩存的使用能使我們解決這一問題。

既然是熱詞,當然是最近幾天搜索量最多的,故Sql語句需要考慮指定的時間之內的搜索數量的排序。

  1. public IEnumerable<Model.SearchSum> GetHotWords()  
  2.         {   
  3.             //緩存  
  4.             var data=HttpRuntime.Cache["hotwords"];  
  5.             if (data==null)  
  6.             {  
  7.                 IEnumerable<Model.SearchSum> hotWords = DoSelect();  
  8.                 HttpRuntime.Cache.Insert("hotwords",hotWords,null,DateTime.Now.AddMilliseconds(30),TimeSpan.Zero );  
  9.                 return hotWords;  
  10.             }  
  11.             return (IEnumerable<Model.SearchSum>)data;  
  12.         }  
  13.         private IEnumerable<Model.SearchSum> DoSelect()  
  14.         {  
  15.             DataTable dt = SqlHelper.ExecuteDataTable(@"  
  16. select top 5 Keyword,count(*) as searchcount  from keywords   
  17. where datediff(day,searchdatetime,getdate())<7  
  18. group by Keyword   
  19. order by count(*) desc ");  
  20.             List<Model.SearchSum> list = new List<Model.SearchSum>();  
  21.             if (dt!=null&&dt.Rows!=null&&dt.Rows.Count>0)  
  22.             {  
  23.                 foreach (DataRow row in dt.Rows)  
  24.                 {  
  25.                     Model.SearchSum oneModel=new Model.SearchSum ();  
  26.                     oneModel.Keyword = Convert.ToString(row["keyword"]);  
  27.                     oneModel.SearchCount = Convert.ToInt32(row["SearchCount"]);  
  28.                     list.Add(oneModel);  
  29.                 }  
  30.             }  
  31.             return list;  
  32.         } 

搜索建議,類似于Baidu搜索時下拉提示框,Jquery UI模擬,下面是獲取根據搜索數量最多的進行排序,得到IEnumerable<Model.SearchSum>集合

  1.  public IEnumerable<Model.SearchSum> GetSuggestion(string kw)  
  2.         {  
  3.             DataTable dt = SqlHelper.ExecuteDataTable(@"select top 5 Keyword,count(*) as searchcount  from keywords   
  4. where datediff(day,searchdatetime,getdate())<7  
  5. and keyword like @keyword  
  6. group by Keyword   
  7. order by count(*) desc",new SqlParameter("@keyword","%"+kw+"%"));  
  8.             List<Model.SearchSum> list = new List<Model.SearchSum>();  
  9.             if (dt != null && dt.Rows != null && dt.Rows.Count > 0)  
  10.             {  
  11.                 foreach (DataRow row in dt.Rows)  
  12.                 {  
  13.                     Model.SearchSum oneModel = new Model.SearchSum();  
  14.                     oneModel.Keyword = Convert.ToString(row["keyword"]);  
  15.                     oneModel.SearchCount = Convert.ToInt32(row["SearchCount"]);  
  16.                     list.Add(oneModel);  
  17.                 }  
  18.             }  
  19.             return list;  
  20.         } 

最關鍵的搜索代碼,詳見注釋和上面Lucene.Net核心類二:

  1. protected void Page_Load(object sender, EventArgs e)  
  2.  {  
  3.      //加載熱詞  
  4.  
  5.      hotwordsRepeater.DataSource = new Dao.KeywordDao().GetHotWords();  
  6.      hotwordsRepeater.DataBind();  
  7.      kw = Request["kw"];  
  8.      if (string.IsNullOrWhiteSpace(kw))  
  9.      {  
  10.          return;  
  11.      }  
  12.      //處理:將用戶的搜索記錄加入數據庫,方便統計熱詞  
  13.      Model.SerachKeyword model = new Model.SerachKeyword();  
  14.      model.Keyword = kw;  
  15.      model.SearchDateTime = DateTime.Now;  
  16.      model.ClinetAddress = Request.UserHostAddress;  
  17.  
  18.      new Dao.KeywordDao().Add(model);  
  19.      //分頁控件  
  20.      MyPage pager = new MyPage();  
  21.      pager.TryParseCurrentPageIndex(Request["pagenum"]);  
  22.      //超鏈接href屬性  
  23.      pager.UrlFormat = "CreateIndex.aspx?pagenum={n}&kw=" + Server.UrlEncode(kw);  
  24.        
  25.      int startRowIndex = (pager.CurrentPageIndex - 1) * pager.PageSize;  
  26.  
  27.  
  28.      int totalCount = -1;  
  29.      List<SearchResult> list = DoSearch(startRowIndex,pager.PageSize,out totalCount);  
  30.      pager.TotalCount = totalCount;  
  31.      RenderToHTML = pager.RenderToHTML();  
  32.      dataRepeater.DataSource = list;  
  33.      dataRepeater.DataBind();  
  34.  }  
  35.  
  36.  private List<SearchResult> DoSearch(int startRowIndex,int pageSize,out int totalCount)  
  37.  {  
  38.      string indexPath = "C:/Index";  
  39.      FSDirectory directory = FSDirectory.Open(new DirectoryInfo(indexPath), new NoLockFactory());  
  40.      IndexReader reader = IndexReader.Open(directory, true);  
  41.      //IndexSearcher是進行搜索的類  
  42.      IndexSearcher searcher = new IndexSearcher(reader);  
  43.      PhraseQuery query = new PhraseQuery();  
  44.        
  45.      foreach (string word in CommonHelper.SplitWord(kw))  
  46.      {  
  47.          query.Add(new Term("body", word));  
  48.      }  
  49.      query.SetSlop(100);//相聚100以內才算是查詢到  
  50.      TopScoreDocCollector collector = TopScoreDocCollector.create(1024, true);//最大1024條記錄  
  51.      searcher.Search(query, null, collector);  
  52.      totalCount = collector.GetTotalHits();//返回總條數  
  53.      ScoreDoc[] docs = collector.TopDocs(startRowIndex, pageSize).scoreDocs;//分頁,下標應該從0開始吧,0是第一條記錄  
  54.      List<SearchResult> list = new List<SearchResult>();  
  55.      for (int i = 0; i < docs.Length; i++)  
  56.      {  
  57.          int docID = docs[i].doc;//取文檔的編號,這個是主鍵,lucene.net分配  
  58.          //檢索結果中只有文檔的id,如果要取Document,則需要Doc再去取  
  59.          //降低內容占用  
  60.          Document doc = searcher.Doc(docID);  
  61.          string number = doc.Get("number");  
  62.          string title = doc.Get("title");  
  63.          string body = doc.Get("body");  
  64.  
  65.          SearchResult searchResult = new SearchResult() { Number = number, Title = title, BodyPreview = Preview(body, kw) };  
  66.          list.Add(searchResult);  
  67.  
  68.      }  
  69.      return list;  
  70.  } 

#p#

Jquery UI模擬Baidu下拉提示和數據的綁定

  1. <script type="text/javascript">  
  2.      $(function () {  
  3.          $("#txtKeyword").autocomplete(  
  4.          {   source: "SearchSuggestion.ashx",  
  5.              select: function (event, ui) { $("#txtKeyword").val(ui.item.value); $("#form1").submit(); }  
  6.          });  
  7.      });  
  8.  </script> 
  1. <div align="center">  
  2.         <input type="text" id="txtKeyword" name="kw" value='<%=kw %>'/>  
  3.         <%-- <asp:Button ID="createIndexButton" runat="server" onclick="searchButton_Click"   
  4.             Text="創建索引庫" />--%>  
  5.         <input type="submit" name="searchButton" value="搜索" style="width: 91px" /><br />  
  6.     </div>  
  7.     <br />  
  8.     <ul id="hotwordsUL">  
  9.           <asp:Repeater ID="hotwordsRepeater" runat="server">  
  10.             <ItemTemplate>  
  11.                 <li><a href='CreateIndex.aspx?kw=<%#Eval("Keyword") %>'><%#Eval("Keyword") %></a></li>  
  12.             </ItemTemplate>  
  13.           </asp:Repeater>  
  14.     </ul>  
  15.     &nbsp;<br />  
  16.     
  17.     <asp:Repeater ID="dataRepeater" runat="server" EnableViewState="true">  
  18.         <HeaderTemplate>  
  19.             <ul>  
  20.         </HeaderTemplate>  
  21.         <ItemTemplate>  
  22.             <li>  
  23.                 <a href='http://localhost:8080/showtopic-<%#Eval("Number") %>.aspx'><%#Eval("Title") %></a>  
  24.                 <br />  
  25.                 <%#Eval("BodyPreview") %>  
  26.               
  27.             </li>  
  28.         </ItemTemplate>  
  29.         <FooterTemplate>  
  30.         </ul>  
  31.         </FooterTemplate>  
  32.     </asp:Repeater>  
  33.     <br />  
  34.     <div class="pager"><%=RenderToHTML%></div> 

點擊附件下載:

原文鏈接:http://www.cnblogs.com/OceanEyes/archive/2012/07/31/2616178.html

【編輯推薦】

  1. 發布一個自己寫的企業站源碼
  2. YQBlog .NET MVC3博客系統之用戶系統實戰
  3. ASP.NET MVC涉及到的5個同步與異步
  4. ASP.NET 餐飲管理系統制作
  5. ASP.NET Cache的一些總結
責任編輯:張偉 來源: 木宛城主的博客
相關推薦

2010-09-07 09:44:44

Lucene.NETHubbleDotNe

2012-08-30 10:20:55

Lucene分布式全文檢索

2013-12-22 22:46:12

百度李彥宏

2014-07-25 17:12:39

數據庫WOT2014MongoDB

2013-08-22 17:08:50

2010-11-10 14:18:15

SQL SERVER全

2025-09-09 01:55:00

StarBlog權重高亮

2024-06-11 10:03:56

2012-05-28 22:51:53

百度

2018-09-06 18:37:45

百度云

2012-10-19 09:47:30

百度云百度音樂云計算

2013-06-27 10:23:30

百度云百度開放云

2014-09-04 02:25:24

百度世界大會2014直達號BaiduEye

2011-10-21 09:28:25

百度地圖API

2011-12-05 09:58:02

百度易手機Android3000元

2011-06-03 16:04:05

SEO分詞

2020-12-03 06:13:46

iOS

2016-03-25 11:18:23

中華網

2015-09-22 10:36:30

百度媒體云人臉識別
點贊
收藏

51CTO技術棧公眾號

www亚洲人| 九九免费精品视频| 四虎4545www精品视频| 久久日韩精品一区二区五区| 国产成人综合精品在线| av女人的天堂| 中文在线免费视频| 亚洲国产精品黑人久久久| 成人精品视频99在线观看免费| 99热精品免费| 秋霞蜜臀av久久电影网免费| 亚洲在线成人精品| 欧美成ee人免费视频| 亚洲午夜激情视频| 精品69视频一区二区三区Q| 日韩毛片在线看| 在线观看免费视频高清游戏推荐| 亚洲婷婷噜噜| 欧美激情一区二区三区| 51精品国产人成在线观看 | 日本一区二区三区视频在线| 国产精品嫩草影院com| 999热视频在线观看| 中文在线第一页| 99久久www免费| 日韩高清免费观看| www.成人黄色| 成人勉费视频| 夜夜精品视频一区二区| 日本一区二区在线视频观看| 精品国产乱码久久久久久蜜臀网站| 欧美在线高清| 中文字幕精品视频| 最新国产精品自拍| 不卡av影片| 亚洲国产一区二区在线播放| 欧美一区二区在线| 国产激情视频在线播放| 狂野欧美一区| 午夜精品久久久久久99热软件| 久久久免费看片| 午夜精品福利影院| 日韩欧美电影在线| 亚洲人视频在线| 日本黄色免费在线| 亚洲在线观看免费视频| 国产高清免费在线| 中文字幕在线播放| 国产片一区二区| 国产一区二区无遮挡| 国产xxxx孕妇| 久久av老司机精品网站导航| 国产69久久精品成人| 精品无码m3u8在线观看| 亚洲精品97| 在线精品国产成人综合| 波多野结衣 在线| 久久精品色综合| 精品捆绑美女sm三区| 免费欧美一级片| 精品视频国内| 4438x亚洲最大成人网| www.国产视频.com| 欧美日韩女优| 欧美日韩中文字幕精品| 色国产在线视频| 久久伊人国产| 91精品国产麻豆国产自产在线| 国产一二三区av| 国产69精品久久久久9999人| 在线欧美日韩国产| 午夜在线观看av| 亚洲精品中文字幕| 粉嫩老牛aⅴ一区二区三区| 国产精品国产亚洲精品看不卡| av小说在线播放| 天天色 色综合| 日本免费黄视频| 国模冰冰炮一区二区| 色综合夜色一区| 手机看片福利日韩| 日本在线一区二区| 日韩一级黄色片| 人妻 丝袜美腿 中文字幕| 日本成人手机在线| 亚洲大胆人体av| 呦呦视频在线观看| 国产一区二区三区网| 中文字幕在线观看日韩| av最新在线观看| 国产精品99免费看| 66m—66摸成人免费视频| 五月天婷婷激情| 老司机精品视频在线| 亚洲aaa激情| 天堂在线视频网站| 日本一区二区三区高清不卡| 中文网丁香综合网| 19禁羞羞电影院在线观看| 日韩欧美中文免费| 亚洲天堂国产视频| 色婷婷成人网| 亚洲国产精品va| 亚洲最大成人综合网| 欧美不卡视频| 欧美专区日韩视频| 国产精品女同一区二区| 不卡一卡二卡三乱码免费网站| 麻豆视频成人| 二区在线播放| 日韩欧美国产黄色| www.桃色.com| 丝袜连裤袜欧美激情日韩| 中文字幕国产日韩| 日本三级免费看| 老色鬼精品视频在线观看播放| 97超级碰碰| 国产福利第一视频在线播放| 日韩美女精品在线| 亚洲中文字幕无码不卡电影| 久久三级中文| 亚洲国产日韩一区| 黄色录像一级片| 日韩电影在线一区二区| 国产精品9999久久久久仙踪林| 高清毛片在线看| 亚洲成人动漫精品| 久久6免费视频| 最近国产精品视频| 久久综合免费视频| 亚洲中文无码av在线| 91视频一区二区| 国产毛片视频网站| jazzjazz国产精品久久| 久久91亚洲精品中文字幕| 亚洲视频一区二区三区四区| 久久精品视频网| 国产精品97在线| 亚洲精品无吗| 2019av中文字幕| 熟妇高潮一区二区高潮| 亚洲成人免费av| 欧美精品欧美极品欧美激情| 怡红院精品视频在线观看极品| 成人在线观看91| 91桃色在线| 亚洲精品久久久久国产| 免费看日韩毛片| 久久影院午夜论| 无码aⅴ精品一区二区三区浪潮| 欧美美女在线直播| 欧洲成人在线观看| 激情视频在线观看免费| 日本丶国产丶欧美色综合| 人人妻人人澡人人爽| 日韩高清在线不卡| 亚洲欧美日韩国产成人综合一二三区| 久久免费资源| 久久中文字幕国产| 亚洲va久久久噜噜噜无码久久| 亚洲一区二区欧美| 久久久久麻豆v国产精华液好用吗| 夜久久久久久| 欧美一区二区三区在线免费观看| 国产福利亚洲| 久久成人这里只有精品| 日批视频免费播放| 色成人在线视频| 可以免费看av的网址| 国产黄色精品网站| 亚洲不卡中文字幕无码| 九九视频精品全部免费播放| 国产精品久久久久久亚洲调教| 色影视在线观看| 日韩免费看网站| 久久99精品波多结衣一区| 国产视频一区不卡| 一级做a爱视频| 伊人久久大香线蕉综合热线| 热re99久久精品国产99热| 青青伊人久久| 国内成人精品一区| 1024国产在线| 欧美v国产在线一区二区三区| 精品国产一区二区三区四| 中文字幕在线观看一区二区| 久久久久久久久久影视| 日本不卡视频在线观看| 日本欧美视频在线观看| 精品久久久久久久久久久aⅴ| 亚洲最大福利视频网站| 亚洲1234区| 欧美大片大片在线播放| 狠狠狠综合7777久夜色撩人| 欧美一级生活片| 91丝袜一区二区三区| 亚洲精品视频在线| b站大片免费直播| 国产精品一二三| y97精品国产97久久久久久| av在线com| 国产精品中文字幕亚洲欧美| av一区观看| 激情中国色综合| 91av在线影院| 国产深夜视频在线观看| 色偷偷噜噜噜亚洲男人的天堂| 国产77777| 91麻豆精品国产91久久久| 一级成人黄色片| 图片区小说区区亚洲影院| 黑人操日本美女| 国产欧美一区二区在线| 伊人网综合视频| 国产精品一区久久久久| www.夜夜爽| 久久一区视频| 免费看国产一级片| 国产一区亚洲| 日韩中文在线字幕| 日韩一区二区三区免费播放| 欧美激情一区二区三区在线视频| 97久久综合精品久久久综合| 国产精品一区二区久久| 欧洲精品一区二区三区| 欧美性视频网站| av小说在线播放| 国产69精品久久久| 羞羞网站在线看| 久久婷婷国产麻豆91天堂| 最新国产在线观看| 中文字幕在线亚洲| 国产www.大片在线| 亚洲人av在线影院| 内衣办公室在线| 亚洲美女黄色片| 水莓100国产免费av在线播放| 亚洲成人久久网| 午夜福利理论片在线观看| 亚洲国产欧美一区| 午夜性色福利视频| 亚洲国产精品久久91精品| 黄频在线免费观看| 亚洲成年人影院在线| 日韩一区二区三区不卡| 欧美精品一区二区久久久| 亚洲精品福利网站| 亚洲精品福利视频| 深夜视频在线免费| 亚洲性生活视频| 国产午夜视频在线观看| 中文在线资源观看视频网站免费不卡| 超碰免费97在线观看| 在线午夜精品自拍| 黄色网址在线免费播放| 精品午夜电影| 2019精品视频| 97se综合| 国产欧美最新羞羞视频在线观看| 国产三级一区| 成人在线观看视频网站| 欧美视频三区| 国产精品免费一区二区三区观看| 欧美电影在线观看免费| 欧美最大成人综合网| 久久国产电影| 精品国产一区二区三区在线| 亚洲国产精品第一区二区三区| 欧美三级一级片| 麻豆91在线看| 韩国黄色一级片| 久久网站最新地址| av片在线免费看| 亚洲国产精品久久久久秋霞影院| 国产精品一区二区三区四| 欧美体内she精视频| 精品欧美在线观看| 日韩经典第一页| 日本在线视频网| 国内精品400部情侣激情| 78精品国产综合久久香蕉| 91视频国产高清| 欧美理论电影在线精品| 国产91av视频在线观看| 伊人精品在线| 亚洲va综合va国产va中文| 成+人+亚洲+综合天堂| 亚洲不卡的av| 亚洲国产日韩一区二区| 日韩精选在线观看| 精品久久国产97色综合| gogogo高清在线观看免费完整版| 欧美成人合集magnet| 台湾佬中文娱乐久久久| 亚洲欧美精品午睡沙发| 五月天丁香社区| 国产日韩欧美电影| 国产小视频在线看| 欧美午夜精品一区二区蜜桃| 乱精品一区字幕二区| 在线亚洲午夜片av大片| 末成年女av片一区二区下载| 成人妇女免费播放久久久| 久久电影在线| 无码人妻精品一区二区蜜桃百度| 丝袜国产日韩另类美女| 精品少妇人妻av一区二区三区| 中文字幕一区二区三区不卡在线 | 麻豆av免费看| 国产精品污污网站在线观看| 久久久午夜影院| 日韩视频在线你懂得| 97视频在线观看网站| 欧美一级电影在线| julia中文字幕一区二区99在线| 亚洲国产日韩综合一区| 国产亚洲高清视频| 91视频免费入口| 国产精品久线观看视频| 亚洲综合久久网| 亚洲国产日韩精品在线| 日本高清在线观看视频| 91麻豆桃色免费看| 成人在线丰满少妇av| 免费裸体美女网站| 91亚洲大成网污www| 国产小视频在线观看免费| 日韩一区二区影院| 超碰个人在线| 国产中文字幕91| 99久久精品费精品国产风间由美| 已婚少妇美妙人妻系列| 久久精品一区二区三区av| 在线能看的av| 国产丝袜一区二区三区免费视频| av影院在线| 好吊妞www.84com只有这里才有精品| 欧美精品一级| 性感美女一区二区三区| 一区二区免费在线播放| 亚洲乱码精品久久久久.. | 波多视频一区| 欧洲国产精品| 日本aⅴ免费视频一区二区三区| 真实乱视频国产免费观看| 色婷婷亚洲精品| 国产一区二区影视| 国产精品欧美日韩一区二区| 日韩一级毛片| 超碰在线超碰在线| 一区二区三区国产| 少妇精品高潮欲妇又嫩中文字幕| 97香蕉久久超级碰碰高清版| 黑人久久a级毛片免费观看| 免费观看国产精品视频| 久久综合色天天久久综合图片| 国产视频1区2区| 上原亚衣av一区二区三区| 精品三级国产| 欧美视频在线观看网站| 久久青草国产手机看片福利盒子| 国产亚洲欧美日韩高清| 色偷偷综合社区| 国产精品一区二区三区av| 国产免费裸体视频| 99精品国产99久久久久久白柏| 一级一片免费看| 久久久精品日本| 国产精品黄网站| 日本三区在线观看| 国产精品丝袜一区| 国产av精国产传媒| 97国产在线视频| 日韩伦理一区| 久久久久亚洲av无码网站| 色欧美日韩亚洲| 黄色在线论坛| 久久久一本精品99久久精品| 蜜桃在线一区二区三区| 久久av高潮av无码av喷吹| 亚洲欧美日韩直播| 91精品网站在线观看| 国产精品又粗又长| 亚洲国产精品99久久久久久久久| 国产三级小视频| 欧美一区二区色| 亚洲综合自拍| av黄色免费网站| 欧美一级夜夜爽| 日韩一级二级| 国产v片免费观看| 亚洲欧美综合另类在线卡通| 综合视频免费看| 久久蜜桃av| 在线天堂www在线国语对白| 欧美三级韩国三级日本三斤 | 一区二区三区精品久久久| 你懂的免费在线观看视频网站| 91精品婷婷国产综合久久蝌蚪| 老司机一区二区三区|