LARGE DATASETS - 日本語 への翻訳

大規模なデータセットを
大きなデータセットを
大量のデータセットを
大量のデータを

英語 での Large datasets の使用例とその 日本語 への翻訳

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Computer category close
  • Programming category close
Batch predictions are designed to be run against large datasets asynchronously, using services such as Cloud Dataflow to orchestrate the analysis.
バッチ予測は、大規模なデータセットに対して非同期的に実行されるように設計されており、CloudDataflowなどのサービスを使って分析をオーケストレートします。
Finally, in addition to studying rare events and studying heterogeneity, large datasets also enable researchers to detect small differences.
最後に、まれな出来事を研究し、異種性を研究することに加えて、大きなデータセットはまた、研究者が小さな違いを検出することを可能にする。
The team at the Federal University of Rio de Janeiro, Brazil, looked at large datasets comparing the total number of neurons of different species, as well as cortical surface area, thickness, brain volume, and amount of folding.
を行ったリオデジャネイロ連邦大学(ブラジル)の研究チームは、大規模なデータセットを調べ、さまざまな動物種の神経細胞の総数および大脳皮質の表面積と厚さ、脳の容積、シワの量を比較しました。
Quite simply, researchers who don't think about systematic error face the risk of using their large datasets to get a precise estimate of an unimportant quantity, such as the emotional content of meaningless messages produced by an automated bot.
簡単に言うと、体系的なエラーを考えない研究者は、大規模なデータセットを使用して自動ボットによって生成される無意味なメッセージの感情的な内容など、重要でない量を正確に推定するリスクに直面します。
In a blog post, Microsoft's Dare Obasanjo shared his notes on a session given by Jeff Dean from Google at the Google Seattle Conference on Scalability,“MapReduce, BigTable, and Other Distributed System Abstractions for Handling Large Datasets”.
MicrosoftのDareObasanjo氏は、GoogleのJeffDean氏(サイト・英語)がシアトルのスケーラビリティに関する会議で行ったセッション「MapReduce、BigTable、および大規模なデータセットを取り扱うための、その他の分散システムの概念」についての彼の覚書を、ブログの投稿で共有した。
With over a petabyte of the world's leading public satellite imagery data available at your fingertips, you can avoid the cost of storing the data and the time and cost required to download these large datasets and focus on what matters most: building products and services for your customers and users.
ペタバイトを超える世界最先端の衛星画像データを自在に扱えれば、それだけのデータを格納するためのコストと、巨大なデータセットのダウンロードに必要な時間とコストを削減できるとともに、顧客やユーザーのための製品/サービスを構築するという最も大切な作業に集中できます。
For example, some companies apply simple models to large datasets, some apply complex models to small ones, some need to train their models on the fly, and some don't use(conventional) models at all.
たとえば、大規模なデータセットに単純なモデルを適用する、小規模なモデルに複雑なモデルを適用する、一部のモデルをその場でトレーニングする必要がある、および(従来の)モデルをまったく使用しない企業などがあります。
Finally, 2014 saw the use of new techniques to study cell signaling and identify drug targets, such as the in vivo use of RNA interference to study signaling in T cells and new computational methods to study large datasets of different data types.
最後に、2014年には、細胞シグナル伝達の研究や薬剤標的の同定に新たな手法が用いられており、RNA干渉をinvivoで用いたT細胞シグナル伝達の検討や、新たな計算法によるさまざまなデータタイプの大規模データセットの検討などがあった。
One of the advantages of having both vBlock and Isilon is that we can use Isilon for deep storage of our really large datasets. Yet on the vBlock we have the flexibility to run very high performance applications but also to have very tight integration with the data store on the backend.”.
VblockとIsilonの両方を保有するメリットの1つは、非常に大規模なデータセットのディープストレージとしてIsilonを使用できることです。また、Vblockは、非常に高パフォーマンスなアプリケーションを実行する柔軟性があるだけでなく、バックエンドのデータストアと非常に緊密に統合されています」。
Mixed-Precision Computing Double the throughput and reduce storage requirements with 16-bit floating point precision computing to enable the training and deployment of larger neural networks. High Speed HBM2 Memory Built with 16GB of the industry's fastest graphics memory(717 GB/s peak bandwidth), Quadro GP100 is the ideal platform for latency-sensitive applications handling large datasets.
Mixed-Precisionコンピューティング16ビット浮動小数点精度コンピューティングにより、スループットを2倍にし、ストレージ要件を削減し、より大きなニューラルネットワークのトレーニングと展開を実現高帯域幅メモリ:HBM2業界最速のグラフィックスメモリ16GB(最大717GB/秒のピーク帯域幅)で構築されたQuadroGP100は、大規模データセットを処理する遅延に敏感なアプリケーションにとって理想的なプラットフォームです。
Labelme: A large dataset of annotated images.
Labelme:アノテーション付き画像の巨大なデータセット
We obtained a very, very large dataset.
とても、大事な、大きなデータを預かりました。
The necessary overview in larger datasets, the management program with different search filters and the option will to take address data in groups.
大規模なデータセットで必要な概要は、異なる検索フィルタを使用して管理プログラムとオプションは、グループ内のアドレスデータを取るだろう。
Why: The capacity to handle larger datasets gives you more flexibility on the data you choose.
理由:より大きいデータセットを処理できるため、選択するデータの柔軟性が高まります。
Accurate facial recognition algorithms are based on deep learning and require a large dataset to train the system.
正確な顔認証アルゴリズムは、ディープラーニングに基づいており、システムをトレーニングするための大規模なデータセットを必要とします。
You can even toggle connections with a click to apply in-memory queries to the larger dataset.
さらに、ワンクリックで接続を切り替えて、大規模なデータセットにインメモリクエリを適用することも可能です。
The best way to deal with these misclassifications is use the largest dataset possible.
このような誤分類に対処する最善の方法は、可能な限り大規模なデータセットを使用することだ。
Our creative approach and large dataset enabled us to calculate weather-related reductions in gestational lengths across the entire U. S.
私たちの創造的なアプローチと大規模なデータセットにより、全米での気象に関連した妊娠期間の短縮を計算することができました。
Send your largest datasets directly to your machine learning tools of choice via Stream Results.
StreamResultsを介してお好みの機械学習ツールに最大のデータセットを直接送信。
Baidu Apolloscapes: Large dataset that defines 26 different semantic items such as cars, bicycles, pedestrians, buildings, street lights, etc.
百度アポロスケープ:車や自転車、歩行者、建物、街灯など、26の異なった意味を持つアイテムを定義する大型データセット
結果: 41, 時間: 0.0512

単語ごとの翻訳

トップ辞書のクエリ

英語 - 日本語