NGramSplitterの例: Accumulateの省略 - Advanced SQL Engine - Teradata Database

Teradata Vantage™ - Advanced SQL Engine分析関数

Product
Advanced SQL Engine
Teradata Database
Release Number
17.10
Published
2021年7月
Language
日本語
Last Update
2021-09-23
dita:mapPath
ja-JP/wnd1589838592459.ditamap
dita:ditavalPath
ja-JP/ayr1485454803741.ditaval
dita:id
B035-1206
Product Category
Software
Teradata Vantage

入力

入力テーブルparagraphs_inputには、一般的に使用される機械学習の技術に関する文章が含まれています。

paragraphs_input
paraid paratopic paratext
1 デシジョン ツリー デシジョン ツリーの学習では、デシジョン ツリーを予測モデルとして使用し、ある項目についての結果をその項目の目標値についての結論にマッピングします。これは、統計、データ マイニング、機械学習で使われる予測的なモデリング アプローチの1つです。ターゲットの変数として有限の値セットが可能なツリー モデルは、分類ツリーと呼ばれます。このようなツリー構造では、リーフ(葉)はクラスのラベルを表わし、ブランチ(枝)はこれらのクラス ラベルにつながる機能の結合を表わします。ターゲットの変数として連続する値(通常は実数)が可能なデシジョン ツリーは、回帰ツリーと呼ばれます。
2 単純回帰 統計では、単純な線形回帰は、1つの説明変数を含む線形回帰モデルの最小二乗推定値です。つまり、単純な線形回帰は、モデルの残差二乗和(つまり、データ セットのポイントと当てはまる線の間の垂直距離)の合計を可能な限り小さくするように、n点のセットによって直線を当てはめます。
..。 ..。 ..。

SQL呼び出し

SELECT * FROM NGramSplitter (
  ON paragraphs_input
  USING
  TextColumn ('paratext')
  Grams ('4-6')
  OutputTotalGramCount ('true')
) AS dt;

出力

paraid paratopic ngram n frequency totalcnt
1 デシジョン ツリー decision tree learning uses 4 1 73
1 デシジョン ツリー decision tree learning uses a 5 1 66
1 デシジョン ツリー decision tree learning uses a decision 6 1 60
1 デシジョン ツリー tree learning uses a 4 1 73
1 デシジョン ツリー tree learning uses a decision 5 1 66
1 デシジョン ツリー tree learning uses a decision tree 6 1 60
1 デシジョン ツリー learning uses a decision 4 1 73
1 デシジョン ツリー learning uses a decision tree 5 1 66
1 デシジョン ツリー learning uses a decision tree as 6 1 60
..。 ..。 ..。 ..。 ..。 ..。