'chupar Conteúdo'
Started By lfbadwolf, 09/03/2005, 14:53
17 replies to this topic
#1
Posted 09/03/2005, 14:53
Olá, gostaria de saber como faço para chupar conteúdo de um site, se tem como criar um sistema ou se alguem tem algo parecido.
Ex. no site Imprensa Oficial tem o e-diariooficial, que mantém o conteúdo dos ultimos 15 dias somente, gostaria então de poder gravar o conteúdo diário que sai nele para poder fazer consultas futuras.
Agradeço desde já a tenção
Luiz Felipe
Ex. no site Imprensa Oficial tem o e-diariooficial, que mantém o conteúdo dos ultimos 15 dias somente, gostaria então de poder gravar o conteúdo diário que sai nele para poder fazer consultas futuras.
Agradeço desde já a tenção
Luiz Felipe
#2
Posted 09/03/2005, 15:16
Desculpa eu não entendi.
Explique melhor
Explique melhor
NITRØ
--------------------
Foi mau galera
--------------------
Foi mau galera
#4
Posted 09/03/2005, 16:21
Todo o dia é gerado arquivos com conteúdo texto, tipo noticias.
Gostaria de poder copiar estes textos do site
Atyenciosamente
Gostaria de poder copiar estes textos do site
Atyenciosamente
#5
Posted 09/03/2005, 16:22
utilize RSS
#6
Posted 09/03/2005, 16:24
O site é seu?
NITRØ
--------------------
Foi mau galera
--------------------
Foi mau galera
#7
Posted 09/03/2005, 16:26
Como utilizo RSS?
Não o site não é meu, mas o conteúdo é público
Não o site não é meu, mas o conteúdo é público
#8
Posted 09/03/2005, 16:28
dah uma pesquisada aki no forum pq tem bastante
#9
Posted 09/03/2005, 16:39
Véi pesquisa nestes sites.
www.phpbrasil.com
www.linhadecodigo.com
www.google.com.br
www.phpbrasil.com
www.linhadecodigo.com
www.google.com.br
NITRØ
--------------------
Foi mau galera
--------------------
Foi mau galera
#10
Posted 09/03/2005, 16:41
tem estes daki tamem:
http://www.codigolivre.com.br
http://www.superphp.com.br
http://www.hotscripts.com
http://www.scriptbrasil.com.br
falow
http://www.codigolivre.com.br
http://www.superphp.com.br
http://www.hotscripts.com
http://www.scriptbrasil.com.br
falow
#11
Posted 09/03/2005, 16:46
uma pergunta o RSS pega páginas em XML que já vi se for htym tmabem pega?
#12
Posted 09/03/2005, 16:48
sim, ele pega o .xml da pagina, da uma olhada na pagina da folha
#13
Posted 09/03/2005, 16:49
Se o site for seu fica mais facil.
Se não for só pesquisando mesmo
Se não for só pesquisando mesmo
NITRØ
--------------------
Foi mau galera
--------------------
Foi mau galera
#14
Posted 09/03/2005, 17:04
Encontrei alguns exemplos que copiam páginas XML, mas nada para páginas HTM.
#15
Posted 09/03/2005, 18:18
se ele usar uma pagina só com o texto ou armazenar em um txt ai só por
<?php
// Le um arquivo em um array. Nesse exemplo você pode obter via HTTP para obter
// o código fonte HTML de uma URL.
$lines = file ('http://www.exemplo.com/');
// Roda através do array, mostrando o fonte HTML com numeração de linhas.
foreach ($lines as $line_num => $line) {
echo "Linha #<b>{$line_num}</b> : " . htmlspecialchars($line) . "<br>\n";
}
// Outro exemplo, onde obtemos a página web inteira como uma string. Veja também file_get_contents().
$html = implode ('', file ('http://www.exemplo.com/'));
?>
pq se tiver o lay sei la acho q vai puxa o lay junto... peguei no site que o cara posto http://br.php.net/file
ve la!
<?php
// Le um arquivo em um array. Nesse exemplo você pode obter via HTTP para obter
// o código fonte HTML de uma URL.
$lines = file ('http://www.exemplo.com/');
// Roda através do array, mostrando o fonte HTML com numeração de linhas.
foreach ($lines as $line_num => $line) {
echo "Linha #<b>{$line_num}</b> : " . htmlspecialchars($line) . "<br>\n";
}
// Outro exemplo, onde obtemos a página web inteira como uma string. Veja também file_get_contents().
$html = implode ('', file ('http://www.exemplo.com/'));
?>
pq se tiver o lay sei la acho q vai puxa o lay junto... peguei no site que o cara posto http://br.php.net/file
ve la!
[]'s
1 user(s) are reading this topic
0 membro(s), 1 visitante(s) e 0 membros anônimo(s)