ニュースサイトは"robots.txt"を使って アップルがAIのトレーニングデータのために サイトをスキャンするのを阻止しています News sites use "robots.txt" to block Apple from scraping their sites for AI training data.
Facebookやニューヨークタイムズなどの 大手プラットフォームは "robots.txt"というファイルを使って アップルがAIの訓練目的で ウェブサイトをスキャンするのを 阻止しています Major platforms like Facebook and the New York Times are using a file called "robots.txt" to block Apple from scraping their websites for AI training purposes. アップルは出版社に 数百万ドルの資金を提供して ウェブサイトをクレイプし そのデータを人工知能の訓練に 利用することを目指しています Apple has been offering publishers millions of dollars to scrape their sites, with the aim of using the data for AI training. サイト所有者が自分のサイトをスキャンしたくないと表示できる robots.txt ファイルは,多くのニュースサイトが Apple Intelligence のコンテンツへのアクセスをブロックすることを選択していることを示しています. The robots.txt file, which allows site owners to indicate they do not want their sites scraped, demonstrates that many news sites are opting to block Apple Intelligence from accessing their content.