ArticlePDF Available

Abstract and Figures

Platforms and softwares are available as services, both being used in Cloud Computing environments. This has improved flexibility, reducing total business cost and providing on- demand services. Several companies already use cloud computing to distribute its soft- wares, and it is believed that a constant migration to these environments will take place in the upcoming years. This course will introduce the main cloud computing concepts and technologies, its architecture, service and deployment models, as well as applications that can be executed in such environments. Finally, challenges and opportunities in the cloud computing field will be presented.
Content may be subject to copyright.
A preview of the PDF is not available
... The National Institute of Standards and Technology (NIST) defines Cloud Computing as "a model that enables ubiquitous, convenient and on-demand access to a set of configurable computing resources (e.g., networks, servers, storage, applications, and services) that can be quickly provisioned and released with minimal management effort or service provider interaction" [23]. In this context, the computational resources are made available and accessed through the Internet from the existing network infrastructure on site [24]. ...
Conference Paper
Full-text available
The article presents the grainBIRD concept inspired by a distributed fog of grain sounds metaphor. Shortly, granular synthesizers are distributed in a mobile devices network. Applying Interactive Genetic Algorithm (IGA) and exchanging Open Sound Control (OSC) messages in a Virtual Private Network, grainBIRDs generate sound grains in standalone and network configurations. The grainBIRDs concept dialogues with the Internet of Things (IoT) paradigm since it was inspired by Cloud and Fog computing architectures. In this sense, this article presents the grainBIRD and grainBIRD Orchestra concepts, followed by a review on Computer Music and Network technologies related to the project. The article also discusses the computer implementation of the grainBIRD application using the Pure Data programming environment and concludes with performance tests of the network communication feasibility and the system sound generation capacities.
... Computing é que provedores de serviços que utilizam sistemas terceirizados pagam apenas pelos recursos que recebem, ou seja, pagam pela sua utilização efetiva. Não são necessários investimentos iniciais em TI e o custo cresce de forma linear e previsível com o uso(SOUSA et al., 2009).O National Institute of Standards and Technology (NIST) define a computação em nuvem como um modelo que possibilita acesso, de modo conveniente e sob demanda, a um conjunto de recursos computacionais configuráveis (por exemplo, redes, servidores, armazenamento, aplicações e serviços) que podem ser rapidamente adquiridos e liberados 4 Data Center é um servidor, local onde os dados ficam alocados.Brazilian Journal of Development, Curitiba, v.7, n.12, p. 110574-110608 dec. 2021 com mínimo esforço gerencial ou interação com o provedor de serviços (MELL; GRANCE, 2009). ...
Article
Full-text available
A pandemia do novo coronavírus (COVID-19) iniciou uma crise sanitária mundial que irá entrar para história. Os principais órgãos sanitários mundiais sugeriram o isolamento social como estratégia fundamental de contenção do vírus, impactando a vida de todos, principalmente a forma de trabalhar, dando grande destaque ao regime de trabalho remoto, popularmente conhecido como home office. Através da mudança urgente do regime de trabalho tradicional, os colaboradores e gestores perceberam-se desafiados a buscar métricas e medidas adequadas de distribuição de trabalhos, metas e prazos de entrega, que disputam espaço com o tempo de convívio familiar, trabalhos domésticos e atividades escolares. Além de discutir e analisar o impacto de estratégias voltadas para indústria 4.0 e cloud computing, o objetivo do presente trabalho é analisar a transição do trabalho em escritório/presencial para o home Office. Como procedimentos metodológicos, adotou-se uma revisão da literatura e um estudo de caso, através da aplicação de entrevistas e questionários. Os resultados obtidos apontaram o deslumbramento dos colaboradores sobre a nova forma de trabalho, o aumento da produtividade e efetividade e uma diminuição expressiva no contágio da COVID-19.
... Integração de dispositivos a nuvemFonte:Sousa et al (2009) ...
Article
Full-text available
A finalidade do presente artigo se centra em identificar em empresa do setor de e-commerce, os problemas de manutenção de ERP em servidor próprio, comparativamente aos benefícios e custos de implantação do mesmo ERP em Cloud Computing. Os estudos foram desenvolvidos em uma empresa de São Paulo/SP, que adota como objeto social o comércio eletrônico de produtos em geral, que vinha enfrentando dificuldades ligadas ao desempenho do ERP mantido em servidor próprio. A migração para nuvem trouxe ganho de performance ao eliminar problemas como lentidão e redução do tempo em que o sistema e suas integrações ficavam inoperantes, ao passo que, aumentou os gastos com tecnologia da informação ligados ao ERP corporativo.
... Outras aplicações estão relacionadas à bioinformática (DEELMAN et al., 2008) e processamento de imagens (SOUSA et al., 2009). ...
Book
Full-text available
Silos são estruturas relatadas em textos antigos e ruínas arqueológicas na Grécia antiga no século VIII aC., demonstrando que, a prática de armazenagem de alimentos já era uma necessidade antiga, sendo que, o primeiro silo de madeira destinado ao armazenamento específico de grãos foi construído em 1873 por Fred Hatch em Illinois, EUA. A agroindústria brasileira cresceu de forma acentuada, garantindo ao país o destaque mundial, como reflexo da produção. A atividade da avicultura depende, basicamente, do fornecimento de uma alimentação balanceada em todas as etapas de crescimento, para garantir uma boa conversão alimentar. Dessa forma, é imprescindível toda atenção no processo de armazenagem e na expedição da ração nas fábricas, uma vez que, esses produtos apresentam diferentes propriedades que afetam de forma intrínseca, o comportamento durante o processamento e armazenamento. Os silos são utilizados em larga escala em fábricas de ração e nos aviários, por se tratar de estruturas que garantem, se bem projetadas, a qualidade do produto durante bom tempo, além de facilitar o processo de sua distribuição.
Article
Full-text available
O objetivo do presente estudo é apresentar a implementação da indústria 4.0 no Brasil. Foi realizado o levantamento bibliográfico dos artigos científicos e publicações das instituições que estudam os modelos tecnológicos e industriais. Os artigos tiveram como critério de avaliação e inclusão a data de publicação (2012-2019) e o idioma (português), com foca nas áreas de Engenharia de Produção. A análise dos artigos indica que as pesquisas brasileiras apontam como base desta nova indústria a internet das coisas, sistemas ciber-físicos, automação, big data e inteligência artificial como temas importantes. O presente estudo ponta que o modelo da indústria 4.0 é o novo a nova tendência para atender a um mercado cada vez mais exigente, flexível e fortemente voltado para a era digital. A formação do Engenheiro de Produção deve atender também a estas demandas.
Article
Full-text available
Purpose The purpose of this article is to identify the critical success factors (CSFs) of information technology (IT) projects using cloud computing. CSFs are variables that can influence the success of projects and therefore need to be identified and managed appropriately. Design/methodology/approach This is an exploratory qualitative study with 23 experts in cloud computing projects through semi-structured interviews. The data was analyzed using content analysis. Findings The results present a list of CSFs for projects in a cloud computing environment. The study demonstrated that the CSF with greater relevance to cloud projects is the team’s technical capacity, followed by the support of senior management and the team’s soft skills. In addition, results demonstrated that contract item management is a limiting factor for cloud projects. Research limitations/implications The sample comprised only Brazilian experts, so it may not represent the same scenario as in other locations. The CSF ratio for cloud computing projects may vary depending on the company’s maturity in projects of this nature. Practical implications The CSF relationship can guide managers in properly conducting cloud computing projects, contributing to minimizing the risks and challenges that may interfere with the project. Social implications The relationship of the CSFs in cloud computing projects proposed fills a gap in studies specifically related to this context and tries to minimize project managers’ stress. Originality/value Contract items for the cloud context are added to the CSF literature in IT projects, which have not been addressed so far.
Conference Paper
O presente estudo buscou identificar as principais contribuições do uso das ferramentas Big Data, Machine Learning e Cloud Computing no campo da gestão de obras de construção civil. Para isso, realizou-se uma Revisão Sistemática da Literatura (RSL) nas principais bases de dados de pesquisa científica internacional e selecionou-se 37 artigos a respeito do tema. As análises mostraram que a utilização dessas ferramentas na construção civil é incipiente e relacionada em sua maioria ao uso da metodologia BIM e suas ferramentas, principalmente no Machine Learning e Big Data. Constatou-se que a construção civil ainda precisa avançar mais no uso de tais ferramentas, a fim de utilizar na sua totalidade o que a tecnologia tem a oferecer.
Conference Paper
Full-text available
RESUMO: Durante a formação do profissional de secretariado, uma das competências a serem desenvolvidas é a capacidade de gestão da informação. Nas organizações é possível observar, de modo empírico, que esse profissional é um dos sujeitos que tem o primeiro contato com os documentos da empresa, sendo, muitas vezes, responsável pela triagem, classificação e organização do acervo documental. Diante desse contexto, este estudo tem como objetivo propor um método de arquivamento para a massa documental do projeto Novo Portal do Professor, o qual faz parte de uma cooperação de trabalho entre a Universidade Federal de Santa Catarina (UFSC) e o Ministério da Educação (MEC). Para tanto, em termos metodológicos, utilizou-se como estratégia de pesquisa, o estudo de caso. No que se refere à abordagem trata-se pesquisa qualitativa e descritiva quanto aos objetivos. Em relação aos meios de investigação, a observação participante teve papel primordial durante a realização da coleta de dados, além da pesquisa bibliográfica e documental. Os resultados evidenciaram que para as organizações disporem de um arquivo organizado, devem zelar pela praticidade e acessibilidade das informações. Para tanto, é necessário, primeiramente, eleger uma pessoa responsável para essa atividade, que deve definir os critérios de classificação seguindo, além dos conceitos teóricos, as necessidades especificas do ambiente organizacional. Vale destacar que há formação específica para atuar na gestão da informação/arquivos. Porém, em casos em que não é presente a figura do arquivista, o secretário executivo pode assumir tal função. Palavras-chave: Gestão de informação. Arquivo. Secretário Executivo.
Book
Full-text available
Após o convite para desenvolver material didático que contemplasse o panorama das transformações no campo da tecnologia da comunicação e informação (TICs) na administração pública, sob a lente da inovação pública, dedicamo-nos a levantar quais aspectos seria fundamental abordar, bem como os temas da atualidade. Assim, esses fatores foram ponderados para construção deste livro, observando para que não fosse tão extenso, mas trouxesse uma exata dimensão do contexto de mudanças tecnológicas no setor público, seja no mundo, como no Brasil. Optamos por distribuir o conteúdo deste livro em quatro capítulos que trouxessem uma leitura elementar desse processo de transformação das TICs na administração pública, sem a intenção de esgotar todo o tema. Desse modo, o livro reflete uma síntese de leituras e trabalhos desenvolvidos pelos autores sobre o tema, buscando cumprir o papel de material didático a ser adotado em cursos de extensão e componentes curriculares de graduações e pós-graduações. Este livro está organizado com um primeiro capítulo no qual aborda o advento das TICs e seus efeitos nas melhorias dos processos internos da administração pública e no aperfeiçoamento da relação Estado-sociedade. Neste primeiro capítulo são abordados temas como e-democracia, ciberdemocracia, democracia virtual ou digital e características inovativas adotadas pelo setor público visando à maior participação do cidadão e consequente tentativa de melhoria na entrega de valor público. Já no segundo capítulo adentramos a compreensão conceitual e histórica do governo eletrônico, perpassando as fases de desenvolvimento, bem como a política de Governo Eletrônico ao Governo Digital adotada pela administração pública brasileira. O terceiro capítulo explora a adoção de novas tecnologias que contribuam na proteção de fraudes, a necessidade de prestar contas de seus ativos ao governo e sociedade, além dos aspectos de segurança da informação. Dessa forma, trazemos à tona neste capítulo o importante 10 Inovação e tecnologias da comunicação e informação na administração pública papel da administração pública quanto à concepção e disseminação da computação em nuvem tanto como consumidor quanto como regulador. São explorados conceitos, modelos e experiências, e por fim como encontrase a legislação e práticas dos governos brasileiros quanto ao tema. O quarto capítulo aborda o tema governo aberto, que emerge na agenda pública neste século 21, reconhecendo-o como uma filosofia de governo na qual o Estado e os cidadãos – via transparência, participação e coprodução – atuam em conjunto na administração pública buscando a criação de valor público e trazendo resultados mais efetivos. Neste capítulo, abordam-se conceitos, histórico e potencialidades, limites e desafios para a real introdução e efetividade do governo aberto no mundo e no Brasil. Por fim, desejamos que tenham um excelente proveito do conteúdo ora ofertado, e ressalvamos que cada capítulo pode ser lido separadamente, sem prejuízo à compreensão da totalidade do conteúdo. Porém, para o leitor iniciante ao tema, o desenvolvimento do conteúdo do livro se baseou na construção, partindo inicialmente da explanação do background que fundamenta as transformações e inovações na administração pública, e principais conceitos sobre o tema, chegando até as abordagens mais atuais. Uma excelente leitura!
Conference Paper
Full-text available
Progress of research efforts in a novel technology is contingent on having a rigorous organization of its knowledge domain and a comprehensive understanding of all the relevant components of this technology and their relationships. Cloud computing is one contemporary technology in which the research community has recently embarked. Manifesting itself as the descendant of several other computing research areas such as service-oriented architecture, distributed and grid computing, and virtualization, cloud computing inherits their advancements and limitations. Towards the end-goal of a thorough comprehension of the field of cloud computing, and a more rapid adoption from the scientific community, we propose in this paper an ontology of this area which demonstrates a dissection of the cloud into five main layers, and illustrates their interrelations as well as their inter-dependency on preceding technologies. The contribution of this paper lies in being one of the first attempts to establish a detailed ontology of the cloud. Better comprehension of the technology would enable the community to design more efficient portals and gateways for the cloud, and facilitate the adoption of this novel computing approach in scientific environments. In turn, this will assist the scientific community to expedite its contributions and insights into this evolving computing field.
Conference Paper
Full-text available
With the support of user configurable high speed networks, the emerging e-Infrastructure allows seamless sharing of expensive scientific resources. These resources are often running on a variety of platforms, have different bandwidth and QoS requirements, require specific configuration by technical experts, and in most cases cannot be accessed through a single point of entry. To address these issues, we propose an extensible, reliable, and simple software architecture to share the applications and resources over hybrid networks, and hide the tools' logistical and provisioning complexities. This paper explores the design and implementation of Eucalyptus, and describes how it leverages the benefits of a Service-oriented Architecture (SoA) to provide a highly adaptable, modular, and loosely coupled solution to configure and manage resources needed by users collaborating over the net. We present our methodology to wrap functions of resources into Web services, and integrate the new Web services into the Eucalyptus platform in a generic way. The streams of the events from these resources are captured. This information is used for monitoring resources' activities and diagnosing any error that may arise. We provide a workflow management service allowing users to orchestrate services based on the description of the resources, their dependencies and the captured streams to perform certain tasks. We also propose a combination of Web services and peer to peer technologies to support users in different communities and different network layers, and to decentralize resource management. Eucalyptus was demonstrated to be effective in assisting architects across multiple sites to effectively participate in a shared design session.
Conference Paper
Full-text available
Book
Developing with Google App Engine introduces development with Google App Engine, a platform that provides developers and users with infrastructure Google itself uses to develop and deploy massively scalable applications. Introduction to concepts Development with App Engine Deployment into App Engine What youll learn Create processes that are ideal for cloud platforms. Design data for the cloud. Learn what types of applications are ideal for the cloud. Deploy web applications into the cloud. Measure the success and health of the cloud. Who is this book for? Python developers, developers interested in massive scaling, and developers interested in Google or cloud computing
Conference Paper
Data outsourcing or database as a service is a new paradigm for data management in which a third party service provider hosts a database as a service. The service provides data management for its customers and thus obviates the need for the service user to purchase expensive hardware and software, deal with software upgrades and hire professionals for administrative and maintenance tasks. Since using an external database service promises reliable data storage at a low cost it is very attractive for companies. Such a service would also provide universal access, through the Internet to private data stored at reliable and secure sites. A client would store their data, and not need to carry their data with them as they travel. They would also not need to log remotely to their home machines, which may suffer from crashes and be unavailable. However, recent governmental legislations, competition among companies, and database thefts mandate companies to use secure and privacy preserving data management techniques. The data provider, therefore, needs to guarantee that the data is secure, be able to execute queries on the data, and the results of the queries must also be secure and not visible to the data provider. Current research has been focused only on how to index and query encrypted data. However, querying encrypted data is computationally very expensive. Providing an efficient trust mechanism to push both database service providers and clients to behave honestly has emerged as one of the most important problem before data outsourcing to become a viable paradigm. In this paper, we describe scalable privacy preserving algorithms for data outsourcing. Instead of encryption, which is computationally expensive, we use distribution on multiple data provider sites and information theoretically proven secret sharing algorithms as the basis for privacy preserving outsourcing. The technical contributions of this paper is the establishment and development of a framework for effi- - cient fault-tolerant scalable and theoretically secure privacy preserving data outsourcing that supports a diversity of database operations executed on different types of data, which can even leverage publicly available data sets.
Article
With the significant advances in Information and Communications Technology (ICT) over the last half century, there is an increasingly perceived vision that computing will one day be the 5th utility (after water, electricity, gas, and telephony). This computing utility, like all other four existing utilities, will provide the basic level of computing service that is considered essential to meet the everyday needs of the general community. To deliver this vision, a number of computing paradigms have been proposed, of which the latest one is known as Cloud computing. Hence, in this paper, we define Cloud computing and provide the architecture for creating Clouds with market-oriented resource allocation by leveraging technologies such as Virtual Machines (VMs). We also provide insights on market-based resource management strategies that encompass both customer-driven service management and computational risk management to sustain Service Level Agreement (SLA)-oriented resource allocation. In addition, we reveal our early thoughts on interconnecting Clouds for dynamically creating global Cloud exchanges and markets. Then, we present some representative Cloud platforms, especially those developed in industries, along with our current work towards realizing market-oriented resource allocation of Clouds as realized in Aneka enterprise Cloud technology. Furthermore, we highlight the difference between High Performance Computing (HPC) workload and Internet-based services workload. We also describe a meta-negotiation infrastructure to establish global Cloud exchanges and markets, and illustrate a case study of harnessing ‘Storage Clouds’ for high performance content delivery. Finally, we conclude with the need for convergence of competing IT paradigms to deliver our 21st century vision.
Conference Paper
This is a position paper on multi-tenant databases. As motivation, it first describes the emerging marketplace of hosted enterprise services and the importance of using multi-tenancy to handle high traffic volumes at low cost. It then outlines the main requirements on multi-tenant databases: scale up by consolidating multiple tenants onto the same server and scale out by providing an administrative framework that manages a farm of such servers. Finally it describes three approaches to implementing multi-tenant databases and compares them based on some simple experiments. The main conclusion is that existing database vendors need to enhance their products to better support multi-tenancy.
Conference Paper
Antivirus software is one of the most widely used tools for detecting and stopping malicious and unwanted files. However, the long term effectiveness of traditional host- based antivirus is questionable. Antivirus software fails to detect many modern threats and its increasing com- plexity has resulted in vulnerabilities that are being ex- ploited by malware. This paper advocates a new model for malware detection on end hosts based on providing antivirus as an in-cloud network service. This model en- ables identification of malicious and unwanted software by multiple, heterogeneous detection engines in paral- lel, a technique we term 'N-version protection'. This approach provides several important benefits including better detection of malicious software, enhanced foren- sics capabilities, retrospective detection, and improved deployability and management. To explore this idea we construct and deploy a production quality in-cloud an- tivirus system called CloudAV. CloudAV includes a lightweight, cross-platform host agent and a network ser- vice with ten antivirus engines and two behavioral detec- tion engines. We evaluate the performance, scalability, and efficacy of the system using data from a real-world deployment lasting more than six months and a database of 7220 malware samples covering a one year period. Using this dataset we find that CloudAV provides 35% better detection coverage against recent threats compared to a single antivirus engine and a 98% detection rate across the full dataset. We show that the average length of time to detect new threats by an antivirus engine is 48 days and that retrospective detection can greatly mini- mize the impact of this delay. Finally, we relate two case studies demonstrating how the forensics capabilities of CloudAV were used by operators during the deployment.