UTILICE SOLO PARA LA BIBLIOTECA DE SOLICITUDES PYTHON Requests es una biblioteca completa de Python HTTP con una API lógica y fácil de usar.

Más sobre python-requests...

Tener el siguiente código. Es muy fácil de ejecutar, solo mi problema es que lo ingresé 11 veces a la vez. Entonces, cuando ejecuto este código, copia el contenido 11 veces en la base de datos. row 1 row 2 row 3 ... row 11 Esto es lo que trato de generar: { 'note': '', 'money': 76682.12000....
27 ago. 2020 a las 15:45
Estoy usando requests_html para extraer el elemento <div id="TranslationsHead">...</div> en esta url en que <span id="LangBar"> ... </span> es renderizado por javascript. from requests_html import HTMLSession session = HTMLSession() from bs4 import BeautifulSoup url = 'https://www.thefreedictionar....
23 ago. 2020 a las 01:20
Estoy tratando de recopilar información sobre algunos libros disponibles en Amazon y tengo un error extraño que no puedo entender. Al principio pensé que era Amazon bloqueando mi conexión, pero luego noté que la solicitud tenía un "200 OK" y tenía el contenido HTML real de la página correspondiente.....
23 ago. 2020 a las 01:13
Tengo este código: links = ['https://google.com', 'https://yahoo.com', 'https://amazon.com'] for url in links: r = requests.get(url) r.text result = r.text print(result) Pero esto obtendrá solo el último elemento de la lista (amazon.com). Entonces, ¿cómo consigo todas las solicitud....
21 ago. 2020 a las 16:57
Tengo una lista de URL dentro de un archivo de texto. Me gustaría introducir las URL del archivo de texto en mi secuencia de comandos de código en lugar de pegar cada URL en la secuencia de comandos, pero no estoy seguro de cómo hacerlo. También me gustaría guardar todas las respuestas en un archivo....
18 ago. 2020 a las 01:55
Estoy tratando de enviar imágenes / archivos al tipo de colección Strapi con Python Requests. Tengo un tipo de colección llamado log que tiene un solo medio (y dos campos de texto). No sé cómo crear un nuevo log con una imagen. Solo estoy mezclando código, pero esto es lo que tengo en este momento (....
15 ago. 2020 a las 23:39
Estoy intentando iniciar sesión en este sitio mediante el módulo de solicitudes, pero obtengo el código de estado 403 cada vez que lo intento con mi siguiente intento. Aunque intenté imitar la forma en que se envían las solicitudes mediante las herramientas de desarrollo de monitoreo, no puedo hacer....
12 ago. 2020 a las 21:12
Mira el siguiente fragmento de código import requests from bs4 import BeautifulSoup url = #Insert url here # Method 1 html = requests.get(url, "html.parser") soup = BeautifulSoup( html.text ) #Method 2 html2 = requests.get(url) soup2 = BeautifulSoup( html.text, "html.parser") ¿Qué método es el co....
¿Qué es la opción -x en curl y cómo implementar un comando equivalente en python usando la biblioteca de solicitudes? Quiero que el siguiente comando esté en Python. curl \ -X DELETE \ -H "Accept: application/vnd.github.v3+json" \ https://api.github.com/repos/octocat/hello-world ....
10 ago. 2020 a las 09:24
A use el siguiente código para raspar la información del calzado de "https://www.adidas.com/us/men-shoes": from bs4 import BeautifulSoup from urllib.request import Request, urlopen import requests uri = "men-shoes" hdr = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (....
¿Cómo puedo leer líneas de un archivo txt en este script en lugar de tener que enumerar las URL dentro del script? Gracias from bs4 import BeautifulSoup import requests url = "http://www.url1.com" response = requests.get(url) data = response.text soup = BeautifulSoup(data, 'html.parser') catego....
Me gustaría imprimir la duración del script y guardarlo dentro del csv. ¿Cuál sería el mejor método? import requests with open('infile.txt', 'r') as f: urls = f.readlines() datalist=[] for url in urls: data = requests.get(url) datalist.append(data.text) with open('outfile.txt', 'w') a....
8 ago. 2020 a las 22:10
En el siguiente código, aparece un error cada vez que la línea no tiene cada uno de los tres identificadores. ¿Cómo puedo omitir la línea y pasar a la siguiente si los identificadores no están presentes en el archivo? Si la primera línea no tiene mfgcode, modelno y qtyavail, el programa falla. Graci....
7 ago. 2020 a las 21:45
En el siguiente código, puedo obtener cada solicitud y guardar las respuestas en un archivo. Una búsqueda de 2000 líneas tardó más de 12 horas en completarse. ¿Cómo puedo acelerar este proceso? ¿Funcionaría implementar algo como asynchio? import requests with open('file.txt', 'r') as f: urls = ....
¿Cómo puedo ver el progreso actual de esta solicitud? No se muestra nada hasta que se completa el archivo y me gustaría establecer algún tipo de indicador si esta solicitud aún está activa. import requests with open('file.txt', 'r') as f: urls = f.readlines() datalist=[] for url in urls: d....
7 ago. 2020 a las 06:35
Tengo un archivo de texto que contiene varias líneas de datos, pero solo necesito saber una pequeña parte de una línea. Desde el archivo inicial, puedo reducirlo a la línea que contiene la información que necesito, pero no estoy seguro de cómo extraer solo los datos necesarios: el contenido de mfgco....
7 ago. 2020 a las 03:15
Estoy trabajando en un proyecto en el que intento extraer todas las URL de la página principal de la página web CNN / Politics. He escaneado el código fuente html y he encontrado que los enlaces de los artículos se encuentran en una etiqueta 'li'. Obtengo todo el contenido de dicha etiqueta haciendo....
Estoy tratando de enviar una solicitud con el método de publicación a una API, mi código se parece al siguiente: import urllib.request import json url = "https://api.cloudflareclient.com/v0a745/reg" referrer = "e7b507ed-5256-4bfc-8f17-2652d3f0851f" body = {"referrer": referrer} da....
Estoy enfrentando algunos problemas al obtener el contenido del IRI con algunos caracteres especiales. He estado trabajando estrictamente con el módulo requests. A continuación se muestran algunas de las URL que están causando problemas. https://cwur.org/2018-19/King's-College-London.php https://cwu....
Este es mi código que verifica varias URL para una palabra clave específica y escribe en el archivo de salida si la palabra clave se encontró o no. import requests import pandas as pd from bs4 import BeautifulSoup df = pd.read_csv('/path/to/input.csv') urls = df.T.values.tolist()[2] myList= [] for....
Pido disculpas si esta pregunta es un programador de nivel de entrada real .. Pero si publico datos con el paquete de solicitudes, ¿están seguros los datos? O mientras el mensaje http está "en el aire" entre mi PC y el contenedor http; ¿Alguien podría interceptar / replicar lo que estoy haciendo? ......
30 jul. 2020 a las 16:32
Todavía estoy aprendiendo esto. Pero la primera vez que veo, cuando utilicé el módulo de solicitudes en Python, el sitio web me da su opinión de que no tengo permiso para acceder. Mi código solo debe obtener datos del sitio, y eso es todo. import requests from bs4 import BeautifulSoup url_siemens_p....
30 jul. 2020 a las 12:18
He escrito un script para descargar y guardar las imágenes en un directorio de las URL proporcionadas. Utiliza requests para acceder a la URL proporcionada en un DataFrame (archivo CSV) y descargar las imágenes en mi directorio usando PILLOW. El nombre de la imagen es el número de índice de esa URL ....
Así que quiero codificar algo que me notifique cada vez que algo cambie en una API en cuestión de segundos, pero no puedo encontrar una manera de hacer las solicitudes. ¿Alguna forma de hacer esto?....
29 jul. 2020 a las 13:57
Tengo un programa que debería ir y obtener el título del producto amazon de la URL: import requests from bs4 import BeautifulSoup URL = "https://www.amazon.co.uk/dp/B0756CYWWD?tag=productfinder-headphones-uk-21&linkCode=ogi&th=1&psc=1" headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64;....
29 jul. 2020 a las 09:45