import pandas as pd import streamlit as st import streamlit.components.v1 as components from transformers import * from carga_articulos import cargar_articulos from preprocesamiento_articulos import limpieza_articulos from entrenamiento_modelo import term_document_matrix, tf_idf_score from resultados_consulta import resultados_consulta, detalles_resultados import tensorflow as tf from math import ceil @st.cache_data(show_spinner=False) def split_frame(input_df, rows): df=[] for i in range(0, len(input_df), rows): df.append (input_df.loc[i : i + rows - 1, :]) return df def paginar_frame(df): N_cards_per_row = 1 for n_row, row in df.reset_index().iterrows(): i = n_row%N_cards_per_row if i==0: st.write("---") cols = st.columns(N_cards_per_row, gap="large") # draw the card with cols[n_row%N_cards_per_row]: st.caption(f"{row['feed'].strip()} - {row['seccion'].strip()} - {row['fecha'].strip()} ") st.markdown(f"**{row['titulo'].strip()}**") st.markdown(f"{row['resumen'].strip()}") st.markdown(f"{row['link']}") def crear_indice(): df=cargar_articulos() vocab = limpieza_articulos(df) td_matrix=term_document_matrix(df, vocab, 'ID', 'titulo') td_idf_matrix=tf_idf_score(td_matrix, df.ID.values) td_idf_matrix.to_csv('articulos_indexados.csv') def load_qa_model(): tokenizer = AutoTokenizer.from_pretrained('mrm8488/distill-bert-base-spanish-wwm-cased-finetuned-spa-squad2-es', use_fast="false") model = TFDistilBertForQuestionAnswering.from_pretrained("mrm8488/distill-bert-base-spanish-wwm-cased-finetuned-spa-squad2-es", from_pt=True) return tokenizer, model # 4. Use streamlit to create a web app def main(): #crear_indice() st.set_page_config(page_title="Buscador de noticias periodicos dominicanos", page_icon="📰", layout="centered") st.image('repartidor_periodicos.jpeg', width=150) st.header('El Repartidor Dominicano') # Sidebar st.sidebar.header("Acerca De") st.sidebar.markdown( "El Repartidor Dominicano es un sistema de recuperación de información desde periódicos dominicanos que usa técnicas de aprendizaje de máquina." ) st.sidebar.markdown("Desarrollado por [Lisibonny Beato-Castro](https://scholar.google.com/citations?user=KSzjfeUAAAAJ&hl=es&oi=ao)") st.sidebar.header("ArtÃculos Indexados") st.sidebar.markdown( """ Los artÃculos noticiosos indexados son descargados de los feeds RSS de varios periódicos dominicanos. """ ) st.sidebar.header("Aviso Legal Sobre Uso de Datos") st.sidebar.markdown( """ El uso de los artÃculos en este sitio tiene fines no comerciales, respetando los derechos de autor. Implementamos las mejores prácticas para el uso de RSS, tal y como son recomendadas por el Berkman Klein Center for Internet & Society de la Universidad de Harvard. Si quieres saber más acerca de los feeds RSS o de las mejores prácticas para el uso de RSS, haz clic en los siguientes enlaces: - [RSS](https://es.wikipedia.org/wiki/RSS) - [Uso legal de feeds RSS](https://cyber.harvard.edu/publications/2010/news_aggregator_legal_implications_best_practices) """ ) st.sidebar.header("¡Cómprame un Café!") st.sidebar.markdown("Si te gusta este sitio y quieres darme las gracias o animarme a hacer más, puedes hacer una pequeña donación.") with st.sidebar: components.html( """
""" ) df=cargar_articulos() articulos_indexados = pd.read_csv('articulos_indexados.csv') articulos_indexados = articulos_indexados.set_index('Unnamed: 0') tokenizer, qa_model = load_qa_model() query = st.text_input( "Escribe tus términos de búsqueda o haz una pregunta terminando con el caracter ?:" ) if query: if ('?' in query): st.write("Contestando a: ", query) text='Un texto es una composición de signos codificados en un sistema de escritura que forma una unidad de sentido.' inputs = tokenizer(query, text, return_tensors='tf') outputs = qa_model(input_ids=inputs['input_ids'], attention_mask=inputs['attention_mask']) answer_start_index = int(tf.math.argmax(outputs.start_logits, axis=-1)[0]) answer_end_index = int(tf.math.argmax(outputs.end_logits, axis=-1)[0]) predict_answer_tokens = inputs.input_ids[0, answer_start_index : answer_end_index + 1] answer=tokenizer.decode(predict_answer_tokens) st.info(answer) else: st.write("Buscando: ", query) result = resultados_consulta(df,articulos_indexados, query) if result.empty: st.info("No se encontraron artÃculos para la búsqueda solicitada") else: df_results=detalles_resultados(df,result) batch_size = 5 bottom_menu = st.columns((2,1,1)) with bottom_menu[1]: total_pages = (ceil(len(df_results) / batch_size) if ceil(len(df_results) / batch_size) > 0 else 1) current_page = st.number_input("Página", min_value=1, max_value=total_pages, step=1) with bottom_menu[0]: st.markdown(f"Página **{current_page}** de **{total_pages}** ") pages = split_frame(df_results, batch_size) paginar_frame(pages[current_page - 1]) if __name__ == "__main__": main()