Departamento de Informática (DI)
Permanent URI for this community
Browse
Browsing Departamento de Informática (DI) by Field of Science and Technology (FOS) "Engenharia e Tecnologia::Engenharia Eletrotécnica, Eletrónica e Informática"
Now showing 1 - 10 of 53
Results Per Page
Sort Options
- Adaptive and Scalable Database Management with Machine Learning Integration: A PostgreSQL Case StudyPublication . Abbasi, Maryam; Bernardo, Marco V.; Vaz, Paulo; Silva, José; Martins, Pedro; ANTUNES VAZ, PAULO JOAQUIM; Silva, JoséThe increasing complexity of managing modern database systems, particularly in terms of optimizing query performance for large datasets, presents significant challenges that traditional methods often fail to address. This paper proposes a comprehensive framework for integrating advanced machine learning (ML) models within the architecture of a database management system (DBMS), with a specific focus on PostgreSQL. Our approach leverages a combination of supervised and unsupervised learning techniques to predict query execution times, optimize performance, and dynamically manage workloads. Unlike existing solutions that address specific optimization tasks in isolation, our framework provides a unified platform that supports real-time model inference and automatic database configuration adjustments based on workload patterns. A key contribution of our work is the integration of ML capabilities directly into the DBMS engine, enabling seamless interaction between the ML models and the query optimization process. This integration allows for the automatic retraining of models and dynamic workload management, resulting in substantial improvements in both query response times and overall system throughput. Our evaluations using the Transaction Processing Performance Council Decision Support (TPC-DS) benchmark dataset at scale factors of 100 GB, 1 TB, and 10 TB demonstrate a reduction of up to 42% in query execution times and a 74% improvement in throughput compared with traditional approaches. Additionally, we address challenges such as potential conflicts in tuning recommendations and the performance overhead associated with ML integration, providing insights for future research directions. This study is motivated by the need for autonomous tuning mechanisms to manage large-scale, hetero geneous workloads while answering key research questions, such as the following: (1) How can machine learning models be integrated into a DBMS to improve query optimization and workload management? (2) What performance improvements can be achieved through dynamic configuration tuning based on real-time workload patterns? Our results suggest that the proposed framework significantly reduces the need for manual database administration while effectively adapting to evolving workloads, offering a robust solution for modern large-scale data environments.
- Análise e Exploração de Dados em Cuidados de SaúdePublication . Gomes, André Filipe Domingos; Lacerda, Ana Cristina Wanzeller Guedes de; Fialho, Joana Rita da SilvaEm diversos setores, há uma grande quantidade de dados recolhidos e armazenados, mas que não são analisados. A área da saúde não é distinta e, pela importância que tem junto da população, esta situação não é desejável. Os dados podem fornecer informações históricas ou tendências que poderão ajudar a melhorar o desempenho das organizações no futuro. Para contornar as dificuldades referidas, a mineração de processos (Process Mining) possibilita a extração de conhecimento a partir de dados gerados e armazenados nos sistemas de informação. Assim, este trabalho pretende mostrar os benefícios da utilização do Process Mining na melhoria de processos de saúde, neste caso aplicada a dados de um serviço de urgências. O trabalho iniciou-se por uma fase de pesquisa e exploração, na qual os algoritmos e ferramentas de Process Mining foram investigados, analisados e comparados. Nesta fase, as ferramentas de Process Mining, PM4Py, ProM e Disco, foram testadas, bem como os algoritmos disponíveis Alpha Miner, Directly-Follows Graphs, Fuzzy Miner, Heuristic Miner e Inductive Miner, em cenários com dados que apresentavam desafios reais. Destes testes resultaram comparações e conclusões que foram apresentadas de forma compreensível e intuitiva. Esta fase foi de extrema importância, pois permitiu obter um conhecimento prático necessário para que a posterior aplicação das técnicas fosse o mais eficiente possível. O caso de estudo final permitiu perceber o real potencial das contribuições que o Process Mining pode dar a uma área de tão relevante interesse geral. Com resultados muito positivos, chegou-se a um modelo que permitiu a análise do real funcionamento de um serviço de urgências. Este modelo foi examinado ao pormenor e, posteriormente, foi verificada a conformidade de acordo com o modelo previsto. Esta comparação possibilitou retirar conclusões em relação à gestão do processo, assim como dos seus recursos. Estas informações são extremamente úteis para que os profissionais de cada unidade possam agir sobre as ineficiências existentes e melhorar um serviço com tanta importância para a população.
- Aplicação de técnicas de machine learning à análise de padrões de aprendizagem em gamingPublication . Bastos, João Pedro Fernandes; Duarte, Rui Pedro Monteiro Amaro; Cunha, Carlos Augusto da SilvaA motivação para a produção deste trabalho está essencialmente ligada com o interesse particular na área de machine learning e no potencial da sua aplicação no quotidiano. Trata-se de uma área extremamente complexa, com desafios interessantes tanto a nível de conceitos teóricos como nível de tecnologias e metodologias de implementação. Esta área mostra um potencial de evolução enorme para os próximos anos, tendo uma capacidade poderosa de processamento e suporte à tomada de decisão inigualável na humanidade, sendo um conceito aplicável transversalmente a qualquer indústria e que, se corretamente aplicada, poderá trazer benefícios até agora inalcançáveis para a qualidade de vida do nosso dia-a-dia. Este trabalho pretende explorar a aplicação de técnicas de machine learning à análise de padrões de aprendizagem em jogos (gaming), com o intuito principal de identificar e otimizar as capacidades de algoritmos atualmente existentes e ainda com vista a investigar a relevância da aplicação do conceito de curiosidade nesses algoritmos. Esta exploração passará pela aplicação dessas técnicas a vários jogos, através da implementação de algoritmos de machine learning que interajam diretamente com os ambientes dos jogos e que aprendam a conhecer todas as características inerentes, com vista a reforçar o conhecimento e daí obterem a capacidade de concluir os jogos com sucesso. Desta forma, torna-se possível identificar padrões específicos a cada jogo. Globalmente, através da aplicação de técnicas de machine learning, nomeadamente Q-learning, uma técnica de treino de modelos de aprendizagem com o intuito de ser agnóstica perante o ambiente onde opera e dotada da capacidade de aprender a conhecer um ambiente e os seus obstáculos por forma a superá-los, pretende-se obter resultados de benchmarking para a comparação de padrões de aprendizagem no que se refere à performance, facilidade de implementação e aplicabilidade em cenários reais. Estes resultados servirão ainda para retirar conclusões da mesma natureza sobre a aplicação do conceito de curiosidade num algoritmo de aprendizagem inteligente em gaming, nomeadamente nos jogos Snake e Tetris, que serão abordados no contexto deste documento.
- Arduino Science Kits: plataforma open-hardware para práticas laboratoriais no ensino das ciências experimentaisPublication . Ferreira, Paulo Jorge Craveiro; Loureiro, Jorge Alexandre AlbuquerqueEste trabalho propõe uma plataforma de hardware e software baseada no Arduino para suporte a atividades laboratoriais da disciplina de Física. No ensino das disciplinas das ciências experimentais a demonstração prática é fundamental e legalmente obrigatória. Estas demonstrações implicam a aquisição de kits de experiências por parte das Escolas para utilização nos laboratórios das disciplinas de Física, Química e Biologia. Os kits existentes no mercado são caros e pouco flexíveis, normalmente funcionam para uma só experiência e não é fácil extrair os dados para posterior análise de forma flexível, como por exemplo, numa folha de cálculo. Além disto, o preço destes kits dificulta a execução das tarefas pelos próprios alunos, uma vez que limita o número de experiências que podem ser executadas em simultâneo. Com este projeto, pretende-se desenvolver uma plataforma de captura e tratamento de dados recolhidos por diversos sensores, com recurso a uma ou várias plataformas Arduino que possam ser utilizadas de forma flexível pelos docentes, em sala de aula, com os seus alunos. O Arduino é uma plataforma eletrónica open-source que inclui um microcontrolador programável com uma linguagem baseada em C/C++ e que dispõe de portas digitais e analógicas onde podem ser ligados diversos sensores para interagir com o mundo. Uma das motivações para este projeto é a necessidade existente nas Escolas de disporem de um modo mais acessível de executar as experiências. Mais acessível do ponto de vista económico e do ponto de vista de operacionalização. Não é de desprezar, também, o valor pedagógico de serem os próprios alunos a construírem os kits a partir dos componentes, podendo, deste modo, desfrutar de um ensino mais participativo e aliciante. Existe também uma motivação pessoal que justifica por si só o projeto, mas que, aliada à necessidade existente no sistema de ensino e sentida pelos docentes, permite considerar uma vertente prática e financeira do mesmo. A arquitetura geral da plataforma é composta por três níveis, ou camadas: · No nível mais baixo estará o Arduino e os sensores. Neste nível é implementado um protocolo de comunicação que se pretende que seja universal, de modo a suportar todas as experiências. Este funcionará como um sistema operativo para a plataforma, gerindo os sensores e controlando a comunicação. · Num nível intermédio foi desenvolvido o mesmo protocolo de comunicação, mas do lado das aplicações. Este componente foi implementado para as plataformas Windows .NET e Android e dá suporte às aplicações de nível superior. Estes componentes poderão, no futuro, ser reutilizados na execução de outros projetos, daí a sua separação na arquitetura geral da plataforma. · No nível superior encontram-se as aplicações com as quais os docentes e os discentes vão interagir. Foi implementado sob a forma de uma aplicação para Windows que permite ligar um ou vários Arduinos em simultâneo e outra aplicação para Android que se liga ao Arduino através de Bluetooth. Em geral estas aplicações permitem capturar e apresentar os dados bem como partilhá-los com outras aplicações. Durante a fase de desenvolvimento o projeto foi testado com um grupo de alunos em sala de aula. O teste foi realizado numa fase em que as aplicações ainda se encontravam em desenvolvimento devido aos constrangimentos de tempo, os alunos estavam já na última semana de aulas do ano letivo. O objetivo deste teste foi realizar uma avaliação do trabalho realizado. Foi interessante ver a reação de curiosidade dos discentes quando lhes foi apresentado o Arduino e os sensores, tendo os alunos participado na construção do aparato a utilizar na experiência, instalando os componentes no Arduino. Nesta sessão foram realizadas duas atividades laborais: Queda Livre e Bola Saltitona. A aplicação de captura de dados utilizada foi a versão Windows, ainda em versão inacabada, mas que não foi de difícil utilização, tendo os alunos compreendido com facilidade os comandos disponíveis bem como os dados que foram sendo apresentados. Os resultados obtidos foram precisos e dentro das margens de erro previsíveis para as atividades laboratoriais em sala de aula. Para além disso a plataforma despertou nos alunos o interesse em conhecer melhor os seus componentes. É, por isso, possível dizer que a plataforma produziu resultados não só ao nível das atividades laboratoriais, mas também ao nível pedagógico. O trabalho não termina aqui. De futuro podem ser adicionadas novas funcionalidades que permitam abranger outras disciplinas e outras atividades laboratoriais.
- Arquitetura Data Warehouse para relatórios de Business Intelligence: Estudo de Caso na ConstructelPublication . Martins, Anthony Edgard Marques; Sá, Filipe Alexandre Almeida Ningre deOs Sistemas de Informação (SI) são considerados essenciais em todas as organizações, desempenhando vários papéis importantes e vitais, principalmente no suporte às operações, às tomadas de decisão e na vantagem competitiva e estratégica do negócio. Tendo em conta o aumento substancial do volume de dados recolhidos nas organizações, é essencial reunir o máximo de informação legível e verídica, agrupando diferentes conjuntos de dados em bases de dados (BD), para que possam ser usadas, a nível operacional, e para necessidades internas à organização. No contexto desta realidade, a Constructel (empresa do Grupo Visabeira), de forma a não entrar em conflito com as operações do dia-a-dia, e com visão focada na gestão otimizada de indicadores, necessita reformular e evoluir constantemente de estratégia, tendo optado pela criação de uma arquitetura Data Warehouse (DW) adequada a atualidade do negócio e do volume crescente de dados. Para poder responder a todas as necessidades e possibilitar uma gestão eficiente de indicadores, o objetivo principal deste Projeto focou-se no desenvolvimento de uma plataforma de Business Intelligence (BI), sustentada numa arquitetura Data Warehouse capaz de apresentar os resultados dos indicadores em formato de Dashboards e Relatórios para dotar e melhorar a gestão de negócio na organização com uma visão simplificada e real da atualidade aos gestores, de forma a facilitar a tomada de decisões. Com foco no problema e na sua resolução, este projeto teve o seu processo inicial na recolha de dados, utilizando métodos de importação adequados para grandes volumes de informação e para extração de dados a partir de ficheiros CSV e XLS, utilizando scripts criados em SQL (Script Query Language), incluindo também importação de dados por Interface de Programação de Aplicações (API) provenientes da plataforma cliente utilizada no dia-a-dia da operação. A posteriori, através de técnicas de Extração, Transformação e Armazenamento (ETL, do inglês Extract, Transform and Load), apenas a informação considerada essencial e útil é armazenada em DW e utilizada à posterior pela plataforma de BI. Através da revisão da literatura e da redação do Estado da Arte, denota-se a importância em conseguir detalhar eficazmente os dados recolhidos e em armazenar toda a informação relevante num ou vários repositórios DW (denominados de Data Marts – DM), dependendo da sua abrangência e significado. Com a recolha de informações relevantes no DW, e com a implementação de uma plataforma direcionada para a gestão e análise “inteligente” de toda a informação relativa aos Indicadores, torna-se mais fácil obter Dashboards e Relatórios essenciais para a divulgação de resultados e soluções plausíveis dentro do negócio e da organização. Permitir uma visão esclarecedora e intuitiva do negócio em tempo real é mais um fator relevante e característico da solução implementada. Outro aspeto importante e integrado na solução implementada é facilitar a gestão diária de Indicadores na organização, relembrando que é importantíssimo não interferir nos processamentos do lado operacional, utilizando para tal acontecer, os dados armazenados em DW. A ferramenta Microsoft Power BI foi utilizada na implementação da plataforma BI, permitindo apresentar uma visão realista do negócio e dos resultados dos indicadores através de Dashboards, e com base nas informações recolhidas no DW. Para aumentar o relevo da organização e a satisfação para com os clientes, a necessidade de evolução e de acompanhamento das tecnologias é muito importante. É através desta necessidade que surge a estruturação e implementação da plataforma BI, por forma a permitir automatizar a generalidade das funcionalidades relacionadas com os Indicadores da organização e elevar o negócio a um patamar exemplar. A meta para se obter um “bom produto final” está na constante evolução dos SI e conhecimentos gerais do respetivo negócio da organização. Fornecer informação real e útil aos gestores operacionais, facilita o processo de tomada de decisão e permite manter o foco na operação diária no terreno, permitindo assim, elevar o nome da organização num patamar importante a nível de conhecimento e competitividade. A leitura inteligente da informação torna mais fácil e simples a escolha da decisão.
- Automação de testes e o impacto no desenvolvimento de softwarePublication . Lopes, Cátia Sousa; Sá, Filipe Alexandre Almeida Ningre deNos dias de hoje, são imensas as tarefas nas quais o software (SW) desempenha um papel crítico, o que, num futuro próximo, continuará a ser verificado, dada a exponencial utilização das Tecnologias de informação (TI). A capacidade de fidelização do utilizador define-se pela excelência do SW. Quanto menos falhas este tiver, maior será a probabilidade de conseguir fidelizar o utilizador. Para que essa situação seja possível, os testes são cruciais na etapa do desenvolvimento, uma vez que estes têm como principal propósito a identificação de erros. Atualmente, empresas ou pessoas individuais que desenvolvem SW já se deparam com um problema: o aumento da complexidade decorrente da adição de funcionalidades de forma exponencial. Tal, conduz a uma impossibilidade de testar todo o SW, de cada vez que é objeto de alguma alteração. Estas alterações podem provocar falhas em funcionalidades que já existiam há algum tempo e estavam estabelecidas como funcionalidades estáveis. Por esse motivo, eram apenas testadas as novas funcionalidades e alterações. Para tentar resolver este problema, uma boa abordagem seria apostar na implementação de testes automatizados, sem esquecer também a importância e necessidades dos testes manuais. Os testes automatizados, podem ser implementados com o objetivo de validar a aplicação, como um todo. Assim sendo, terão de ser definidos os testes core, de modo a detetar falhas quando existe alguma alteração ao SW. Desta forma, garante-se que uma funcionalidade, que não foi alterada continua a ter o comportamento desejável. Nos primórdios do desenvolvimento da automação de testes colocavam-se duas questões: “Como vamos executar estes testes?”; “É necessário o fator humano para realizar esta operação?”. Ora, tais questões têm já solução. Atualmente, não é necessário que um humano execute os testes automatizados que foram desenvolvidos, sendo que, a palavra “automatizados”, por si só, significa que, tais testes são executados sem intervenção humana. Este trabalho está inserido no âmbito de projeto final referente ao mestrado em Sistemas e Tecnologias de Informação para as Organizações, e tem como objetivo realizar uma análise sobre os testes automatizados e manuais, e os benefícios da automação no desenvolvimento de SW, permitindo selecionar quais as ferramentas que melhor se adequam num caso real. Foram validadas várias ferramentas, de modo a investigar se são efetivas para encontrar erros. O projeto foi desenvolvido na empresa SIBS, enquadrado na equipa do IPS - Instant Payments Solution (serviço de transferências instantâneas). Em termos práticos, este projeto está focado na implementação de uma bateria de testes automatizados de modo a encontrar falhas no SW. Assim é possível validar e corrigir os erros existentes no software, antes deste ser enviado para as equipas de validação. Para além disso, também vão ser avaliadas as melhores ferramentas a utilizar, para a realização dos testes automatizados, uma vez que cada projeto, contém necessidades diferenciadas, e nem todas as ferramentas se enquadram. Em suma, neste estudo foi desenvolvido um projeto de automação num âmbito real escolhendo a melhor ferramenta de automação das selecionadas Katalon Studio, Robot Framework, Protractor, Watir, tendo em conta as necessidades da empresa.
- Caracterização Anonimizada de Utilizadores de Twitter com base na Análise de SentimentoPublication . Saraiva, Gonçalo Sebastião Trindade; Pinto, Filipe Marques da Silva Cabral; Guedes, Ana Cristina WanzellerAo longo dos anos, impulsionada pelo avanço tecnológico e pela constante inovação de serviços, a sociedade tem intensificado substancialmente o uso das redes sociais, alcançando níveis de dependência (SNS, 2020). A rede social X (antigo Twitter) é uma rede social que permite aos seus utilizadores partilhar as suas opiniões. Esta é uma das redes sociais mais utilizadas atualmente (Martin, 2023) e, quando surgiu, era permitido um máximo de 140 caracteres por tweet, valor que foi aumentado para 280 em 2017. Em Portugal, 2,5 milhões de pessoas usam a rede social X e, mundialmente, esta rede social conta com mais de 330 milhões de utilizadores, o que origina em média a criação de 5 787 tweets por segundo em todo o mundo, o que equivale a quase 500 milhões diariamente (Bacelar, 2022). Estes tweets geram uma quantidade significativa de dados, dados estes que estão a ser cada vez mais importantes na atualidade, pois é possível retirar informações relevantes e/ou ser capaz de identificar perfis. Isto é alcançado através da tecnologia e da descoberta de novas técnicas e algoritmos, sendo estas as principais razões para o desenvolvimento deste projeto. O projeto teve os seguintes objetivos: • Tratar Dados de forma a conseguir obter o melhor resultado possível. • Determinar tópicos para conseguir perceber os assuntos. • Classificar os tweets de modo a determinar se os utilizadores são a favor, contra ou neutros relativamente aos tópicos discutidos nas redes sociais. • Recomendar conteúdos com base no sentimento detetado anteriormente, tendo em conta o tópico abordado. Com o intuito de esclarecer os objetivos deste estudo, propõe-se o seguinte exemplo ilustrativo: Se o Presidente da República for a entidade selecionada, procede-se, assim, à recolha de tweets que façam menção ao perfil "@PresidenteDaRepublica". Em seguida, serão realizadas as etapas necessárias para o tratamento adequado desses tweets, seguido pela identificação dos tópicos mais frequentemente discutidos em relação a essa figura pública. Isso estabelecerá a base de dados fundamental para a condução deste projeto. Uma vez obtida a base de dados, sólida e coesa, realiza-se a análise de sentimento com o objetivo de identificar e classificar os perfis de utilizadores em categorias como "Positivo", "Neutro" ou "Negativo" em relação a diversos temas relacionados com a entidade. Posteriormente, será implementado um sistema de recomendação para enviar conteúdos diferenciados a cada grupo de utilizadores previamente identificados. Esta abordagem permitirá potencialmente influenciar as opiniões das pessoas ou auxiliá-las na formação de opiniões bem fundamentadas e construtivas, independentemente das opiniões serem positivas ou negativas a determinados assuntos.
- Casa inteligente com recurso a tecnologias open sourcePublication . Costa, Rafael Almeida; Francisco, Francisco FerreiraA casa inteligente está a tornar-se popular devido a inúmeros benefícios. Hoje, cada vez mais, se torna imprescindível simplificar, diariamente, a vida das pessoas, nomeadamente as que são portadoras de determinadas deficiências. Os dispositivos inteligentes têm vindo a ganhar uma forte presença no nosso dia a dia e cada vez mais, tendem a integrar o sistema de uma casa, automatizando processos comuns, tais como o controlo de temperatura ambiente ou mesmo a percentagem de luminosidade de uma divisão entre outras tarefas. A visão da IoT contempla um mundo interconectado, recolhendo informações de forma automática e possibilitando a comunicação entre dispositivos. No entanto, as tecnologias existentes para a criação de redes que albergam estes novos dispositivos carecem de padrões bem definidos, dificultando a interoperabilidade entre as diversas soluções existentes. Neste projeto são estudadas e aplicadas tecnologias open source mais promissoras aplicáveis ao paradigma da casa inteligente, com o objetivo de uniformizar o controlo de sistemas de automação em casas inteligentes. Como objetivo final deste projeto, pretende-se criar uma rede de diversos tipos de dispositivos que tenham a capacidade de comunicar com o mundo externo, permitindo o acesso à rede por qualquer tipo de utilizador. Nesse sentido, espera-se caminhar para mais perto da padronização dos protocolos inerentes à IoT e habilitar interoperabilidade entre as mais diversas soluções de dispositivos. São apresentadas soluções para tentar simplificar a rede de modo a que esta possa ser incluída em qualquer ambiente doméstico, recorrendo a hardware de custo reduzido.
- Caso de estudo sobre automação de testes de softwarePublication . Trindade, Sofia Inês Morais; Lacerda, Ana Cristina Wanzeller Guedes de; Cunha, Carlos Augusto da SilvaA qualidade de um sistema, atualmente é algo imprescindível para os utilizadores. Sem o mínimo de qualidade o produto pode não chegar ao consumidor final. Para assegurar a qualidade é necessário efetuar uma quantidade exaustiva de testes durante as fases do seu desenvolvimento de onde podem surgir defeitos. Quanto mais cedo os defeitos forem detetados menor é o seu custo de resolução. Atualmente, existe também a necessidade de validar os sistemas de forma mais rápida e segura devido ao conceito de entrega e integração contínua, cujo objetivo é colocar qualquer tipo de alteração no ambiente de produção. Neste sentido, recorre-se a estratégias de automação de testes para otimizar o seu processo de entrega. Com a realização deste trabalho pretende-se aprofundar os fundamentos teóricos sobre a área da qualidade, mas também, propor uma estratégia de automação de testes de software, tendo em conta uma arquitetura básica e passível de aplicação na maioria de sistemas que a usem. Esta estratégia é aplicada num caso de estudo, tendo em conta as boas práticas e diretrizes do processo de teste: planeamento, controlo e monitorização, análise, desenho, implementação, execução e conclusão. A arquitetura adotada pela estratégia de testes proposta é baseada no padrão arquitetural de três camadas. O âmbito da estratégia passa pela implementação de testes de integração nos serviços da camada aplicacional, onde se validam as regras de negócio, o corpo e o código das respostas recebidas. Inclui ainda a implementação de testes End-to-End na camada de apresentação, onde se validam interações entre os componentes e as interfaces da aplicação. Todos os testes automatizados são executados numa pipeline de integração e entrega contínua, sempre que pretenda enviar qualquer alteração para o ambiente produtivo. A aplicação da estratégia a um caso de uso permitiu concluir que a mesma é passível de utilização em projetos de várias dimensões, visto que são abordados os aspetos mais pertinentes da definição estratégias de teste. Qualquer pessoa que tenha interesse na área de automação de testes consegue obter as bases necessárias para proceder á implementação de testes automáticos, criar baterias de testes de regressão automáticas e investir o restante tempo em testes exploratórios manuais, cujo foco são situações nunca antes pensadas e de onde podem surgir problemas ainda não identificados, evitando que estes cheguem ao consumidor final.
- Communication Channel through Wireless NetworksPublication . Rebelo, Tiago Orlando de JesusDesde cedo o Homem sentiu uma forte necessidade de saber a posição em que se encontra no planeta terra. A época dos descobrimentos foi importante, pelos mundos que deu a conhecer mas também pela evolução dos equipamentos que auxiliaram os navegadores a manterem o seu rumo. Mais tarde as guerras mundiais trouxeram uma grande inovação tecnológica em equipamentos capazes de determinar uma posição na terra. Inicialmente usada para fins militares a tecnologia rapidamente foi aproveitada para uso doméstico, comprovado hoje em dia pela utilização massiva de equipamentos GPS. Recentemente a proliferação de equipamentos eletrónicos pessoais, como os smartphones, trouxeram ao utilizador normal a possibilidade de, por um baixo custo, ter em mãos equipamentos dotados de sensores que permitem o cálculo e determinação da posição, à semelhança dos recetores GPS. Sendo a utilização em espaços fechados uma menos valia do sistema GPS, houve necessidade de realizar investimento em técnicas, métodos e tecnologias que o substituíssem onde ele não é eficaz. Foram criados mecanismos de IPS, Indoor Positioning System. Contudo, esses mecanismos requerem a instalação de equipamentos novos, o que requer também um investimento adicional face a todos os equipamentos existentes. Para além do investimento em sensores são necessários equipamentos que permitam fazer cálculos rápidos para determinar a posição, pois em ambientes fechados o cálculo tem que ser rápido porque o objeto pode mover-se rapidamente. Em alguns casos, a posição efetiva não é uma mais-valia, o que torna o investimento numa solução de IPS bastante dispendiosa para o efeito, não se tirando partido de todas as possibilidades que os sistemas fornecem. Ao mesmo tempo, existe uma grande quantidade de espaços que fornecem acesso à internet através de Access Points (Equipamentos Wi-fi), onde cada equipamento tem uma identificação única e estão, normalmente, num local estratégico de forma a abranger a maior área possível. Uma vez que esses equipamentos já existem, é possível desenhar e criar uma solução IPS que determine a posição relativa do equipamento recetor de sinal wireless, para alguns cenários, na substituição de outro sistema IPS. Com esta dissertação pretende-se dar a conhecer uma implementação de uma sistema de IPS baseado nas redes wireless permitindo criar um canal de comunicação entre os emissores e os recetores de sinal sem que seja necessário um investimento adicional em equipamentos.