Jump to content


Photo

'chupar Conteúdo'


  • Faça o login para participar
17 replies to this topic

#1 lfbadwolf

lfbadwolf

    Turista

  • Usuários
  • 54 posts
  • Sexo:Não informado
  • Localidade:Rio Branco - AC

Posted 09/03/2005, 14:53

Olá, gostaria de saber como faço para chupar conteúdo de um site, se tem como criar um sistema ou se alguem tem algo parecido.
Ex. no site Imprensa Oficial tem o e-diariooficial, que mantém o conteúdo dos ultimos 15 dias somente, gostaria então de poder gravar o conteúdo diário que sai nele para poder fazer consultas futuras.

Agradeço desde já a tenção
Luiz Felipe
Luiz Felipe programador PHP e ASP
Email: lfbaio@wasolucoes.com.br
Site: www.wasolucoes.com.br

#2 <? thales ?>

<? thales ?>

    Nossa vida é desperdiçada pelos detalhes...Simplifique, Simplifi

  • Banidos
  • PipPipPipPipPipPip
  • 551 posts
  • Sexo:Não informado
  • Localidade:Belo Horizonte
  • Interesses:Programar&lt;br&gt;Estou tentando ser um Hacker&lt;br&gt;Gosto de mulheres

Posted 09/03/2005, 15:16

Desculpa eu não entendi.
Explique melhor
NITRØ
--------------------
Foi mau galera

#3 Spider-man

Spider-man

    Doutor

  • Usuários
  • 987 posts
  • Sexo:Não informado

Posted 09/03/2005, 15:35

http://br.php.net/file

#4 lfbadwolf

lfbadwolf

    Turista

  • Usuários
  • 54 posts
  • Sexo:Não informado
  • Localidade:Rio Branco - AC

Posted 09/03/2005, 16:21

Todo o dia é gerado arquivos com conteúdo texto, tipo noticias.
Gostaria de poder copiar estes textos do site
Atyenciosamente
Luiz Felipe programador PHP e ASP
Email: lfbaio@wasolucoes.com.br
Site: www.wasolucoes.com.br

#5 Spider-man

Spider-man

    Doutor

  • Usuários
  • 987 posts
  • Sexo:Não informado

Posted 09/03/2005, 16:22

utilize RSS

#6 <? thales ?>

<? thales ?>

    Nossa vida é desperdiçada pelos detalhes...Simplifique, Simplifi

  • Banidos
  • PipPipPipPipPipPip
  • 551 posts
  • Sexo:Não informado
  • Localidade:Belo Horizonte
  • Interesses:Programar&lt;br&gt;Estou tentando ser um Hacker&lt;br&gt;Gosto de mulheres

Posted 09/03/2005, 16:24

O site é seu?
NITRØ
--------------------
Foi mau galera

#7 lfbadwolf

lfbadwolf

    Turista

  • Usuários
  • 54 posts
  • Sexo:Não informado
  • Localidade:Rio Branco - AC

Posted 09/03/2005, 16:26

Como utilizo RSS?

Não o site não é meu, mas o conteúdo é público
Luiz Felipe programador PHP e ASP
Email: lfbaio@wasolucoes.com.br
Site: www.wasolucoes.com.br

#8 Spider-man

Spider-man

    Doutor

  • Usuários
  • 987 posts
  • Sexo:Não informado

Posted 09/03/2005, 16:28

dah uma pesquisada aki no forum pq tem bastante

#9 <? thales ?>

<? thales ?>

    Nossa vida é desperdiçada pelos detalhes...Simplifique, Simplifi

  • Banidos
  • PipPipPipPipPipPip
  • 551 posts
  • Sexo:Não informado
  • Localidade:Belo Horizonte
  • Interesses:Programar&lt;br&gt;Estou tentando ser um Hacker&lt;br&gt;Gosto de mulheres

Posted 09/03/2005, 16:39

Véi pesquisa nestes sites.
www.phpbrasil.com
www.linhadecodigo.com
www.google.com.br
NITRØ
--------------------
Foi mau galera

#10 Spider-man

Spider-man

    Doutor

  • Usuários
  • 987 posts
  • Sexo:Não informado

Posted 09/03/2005, 16:41

tem estes daki tamem: :D

http://www.codigolivre.com.br
http://www.superphp.com.br
http://www.hotscripts.com
http://www.scriptbrasil.com.br

falow

#11 lfbadwolf

lfbadwolf

    Turista

  • Usuários
  • 54 posts
  • Sexo:Não informado
  • Localidade:Rio Branco - AC

Posted 09/03/2005, 16:46

uma pergunta o RSS pega páginas em XML que já vi se for htym tmabem pega?
Luiz Felipe programador PHP e ASP
Email: lfbaio@wasolucoes.com.br
Site: www.wasolucoes.com.br

#12 Spider-man

Spider-man

    Doutor

  • Usuários
  • 987 posts
  • Sexo:Não informado

Posted 09/03/2005, 16:48

sim, ele pega o .xml da pagina, da uma olhada na pagina da folha

#13 <? thales ?>

<? thales ?>

    Nossa vida é desperdiçada pelos detalhes...Simplifique, Simplifi

  • Banidos
  • PipPipPipPipPipPip
  • 551 posts
  • Sexo:Não informado
  • Localidade:Belo Horizonte
  • Interesses:Programar&lt;br&gt;Estou tentando ser um Hacker&lt;br&gt;Gosto de mulheres

Posted 09/03/2005, 16:49

Se o site for seu fica mais facil.
Se não for só pesquisando mesmo
NITRØ
--------------------
Foi mau galera

#14 lfbadwolf

lfbadwolf

    Turista

  • Usuários
  • 54 posts
  • Sexo:Não informado
  • Localidade:Rio Branco - AC

Posted 09/03/2005, 17:04

Encontrei alguns exemplos que copiam páginas XML, mas nada para páginas HTM.
Luiz Felipe programador PHP e ASP
Email: lfbaio@wasolucoes.com.br
Site: www.wasolucoes.com.br

#15 MarcoviZ

MarcoviZ

    ubuntu for human being

  • Usuários
  • 1137 posts
  • Sexo:Não informado

Posted 09/03/2005, 18:18

se ele usar uma pagina só com o texto ou armazenar em um txt ai só por


<?php
// Le um arquivo em um array. Nesse exemplo você pode obter via HTTP para obter
// o código fonte HTML de uma URL.
$lines = file ('http://www.exemplo.com/');

// Roda através do array, mostrando o fonte HTML com numeração de linhas.
foreach ($lines as $line_num => $line) {
echo "Linha #<b>{$line_num}</b> : " . htmlspecialchars($line) . "<br>\n";
}

// Outro exemplo, onde obtemos a página web inteira como uma string. Veja também file_get_contents().
$html = implode ('', file ('http://www.exemplo.com/'));
?>


pq se tiver o lay sei la acho q vai puxa o lay junto... peguei no site que o cara posto http://br.php.net/file

ve la!
[]'s




1 user(s) are reading this topic

0 membro(s), 1 visitante(s) e 0 membros anônimo(s)

IPB Skin By Virteq