Docsity
Docsity

Prepare-se para as provas
Prepare-se para as provas

Estude fácil! Tem muito documento disponível na Docsity


Ganhe pontos para baixar
Ganhe pontos para baixar

Ganhe pontos ajudando outros esrudantes ou compre um plano Premium


Guias e Dicas
Guias e Dicas

Apostila de SISTEMAS MULTIMÍDIA, Notas de estudo de Informática

Apostila de Alexandre C. B. Ramos (UNIFEI / MG) de Sistemas Multimídia - Teoria, ferramentas e aplicações.

Tipologia: Notas de estudo

Antes de 2010
Em oferta
40 Pontos
Discount

Oferta por tempo limitado


Compartilhado em 16/07/2009

wylis-lyra-6
wylis-lyra-6 🇧🇷

5

(1)

1 documento

Pré-visualização parcial do texto

Baixe Apostila de SISTEMAS MULTIMÍDIA e outras Notas de estudo em PDF para Informática, somente na Docsity! Alexandre C. B. Ramos Rua Vicente Vilela Viana, 391. Apto. 8. Cruzeiro.Cep.: 37500-228. Itajubá. MG. Tel.:(035) 3629-1428 Cel.: (012) 8129-690 ramos@unifei.edu.br http://www.ici.unifei.edu.br/ramos SISTEMAS MULTIMÍDIA Teoria, ferramentas e aplicações. Índice Objetivos....................................................................................................................................................................1 Programa do curso.....................................................................................................................................................1 Bibliografia..................................................................................................................................................................1 Introdução..................................................................................................................................................................2 Programas de autoria.................................................................................................................................................3 Projeto multimídia.......................................................................................................................................................3 Exercícios...................................................................................................................................................................4 Textos em multimídia..................................................................................................................................................5 Fontes e faces............................................................................................................................................................6 Tamanhos e estilos de fontes.....................................................................................................................................6 Diferenças entre caracteres iguais..............................................................................................................................7 A serifa.......................................................................................................................................................................8 Exercícios...................................................................................................................................................................9 Áudio em multimídia.................................................................................................................................................10 Musical instrument digital interface - MIDI..................................................................................................................13 Digital áudio tape - DAT............................................................................................................................................14 O Som Profissional...................................................................................................................................................15 Padrões de Compactação.........................................................................................................................................15 Exercícios.................................................................................................................................................................16 Características da Visão...........................................................................................................................................18 Imagens em multimídia.............................................................................................................................................19 Resolução de imagens.............................................................................................................................................19 Resolução de imagens.............................................................................................................................................20 O Formato GIF.........................................................................................................................................................22 O Formato JPG........................................................................................................................................................23 Exercícios.................................................................................................................................................................24 Animações em multimídia.........................................................................................................................................25 Métodos tradicionais de animação............................................................................................................................25 Qualidade versus tamanho em animações................................................................................................................26 Capítulo 1 Introdução Objetivos, programa do curso e bibliografia. Objetivos Descrever as partes fundamentais da multimídia agrupando-as com a tecnologia e as ferramentas da atualidade. Programa do curso 1. Evolução da comunicação entre homem e máquina: ambientes textuais; ambientes gráficos; ambientes multimídia. 2. O Texto: o poder do significado; fontes e faces; utilizando texto na multimídia. 3. O Áudio: propriedades físicas do som; representação digital do som; processamento digital do som; utilizando áudio na multimídia. 4. A Música e a Voz: técnicas de síntese digital de som; sistemas MIDI; processamento de voz; utilizando música e voz na multimídia. 5. As Imagens: representação digital de imagens; processamento da imagem; os desenhos; a terceira dimensão; utilizando imagens na multimídia. 6. O Vídeo: tecnologia digital de vídeo, armazenamento e princípios de compressão; edição digital de vídeos; utilizando vídeo na multimídia. 7. A Animação: animação e computadores; animação bidimensional e tridimensional; animação em tempo real; utilizando animação na multimídia. 8. Hipermídia: hipertexto estático e dinâmico; linguagens scripts em clientes e servidores; utilizando hipermídia. 9. Produção de Multimídia: ferramentas para produção de multimídia; plataformas de produção e periféricos; softwares de autoria; os estágios padrões e técnicas para projeto multimídia. Bibliografia 1. FILHO, W.P.P. Multimídia conceitos e aplicações. Rio de Janeiro, RJ., Ed. LTC.2000. 321 p. 2. LOWE, DAVID; HALL, WENDY. Hypermedia and the web. New York, NY, John Wiley & Sons. 1999. 626p. 3. HASIMOTO, SHUJI. Multimedia Modeling – Modeling Multimedia Information and Systems MMM 2000. Nagano, Japan 13 – 15 November 2000. River Edge, NJ, World Scientific Publishing Co., Inc. 2000. 512 p. 4. NIELSEN, J. Multimedia and hypertext: the internet and beyond. EUA, Academic press professional, 1995. 5. 5. FBHATNAGER, G., MEHTA, S. MITRA, S. Introduction to Multimedia Systems. Academic Press, 2002. 1 Capítulo 2 O que é multimídia Conceitos Fundamentais Introdução Através dos nossos sentidos podemos perceber e interagir com o nosso mundo. Esses sentidos, principalmente a audição e a visão, desde o berço, são os primeiros que utilizamos nesta interação. Nossos órgãos sensores enviam sinais ao cérebro e, a partir do reconhecimento desses sinais, são formadas informações a respeito de nossa interação com o meio em que estamos. O processo de comunicação entre as pessoas depende, em grande parte, de nosso entendimento desses sentidos de tal forma que, quando a informação é percebida tanto mais efetiva é a comunicação. Por exemplo, quando escrevemos uma carta a alguém descrevendo uma viagem interessante. A pessoa que lê a carta não tem outra informação senão o texto escrito. A comunicação viaja apenas em uma direção. Precisamos esperar uma carta resposta para saber a reação da pessoa. Agora suponha que você tenha enviado uma foto, a quantidade de informação transmitida melhorou bastante o entendimento da outra pessoa. O entendimento da viagem melhoraria bastante se enviássemos um vídeo. Por outro lado, quando falamos com alguém ao telefone. O que é perdido neste tipo de comunicação, em relação a uma conversação face a face? Neste caso, não podemos ver o nosso interlocutor. Muito menos os gestos e expressões que acompanham a conversação os quais são de grande importância na comunicação. Em um sistema de vídeo conferencia podemos observar todas estas características que faltam. Meios de comunicação do tipo carta ou telefone restringem o uso de vários elementos. Podemos observar, então que quanto mais informação for enviada, melhor o impacto desta. O desenvolvimento dos computadores também tem contribuído para melhorar a comunicação, visto que os primeiros terminais só permitiam informações do tipo texto, entretanto foram evoluindo até chegar aos dias atuais computadores pessoais que fornecem informações contendo som, figuras, vídeos etc. a baixo custo e alto desempenho. Nesse contexto podemos definir: • Multimídia é qualquer combinação de texto, arte gráfica, som, animação e vídeo transmitidos pelo computador. • Multimídia Interativa, quando se permite ao usuário o controle de quando e quais elementos serão transmitidos. • Hipermídia, estrutura de elementos vinculados pela qual o usuário pode mover- se. A maior diferença entre as mídias tradicionais tais como rádio e televisão e a multimídia digital é a noção de interatividade. Os computadores permitem aos usuários a interação com os programas. Essa interação é tão importante que pode ser considerada como parte integrante da multimídia. 2 Programas de autoria Os elementos de multimídia são colocados juntos em um projeto utilizando-se de programas de autoria, que são ferramentas de software projetadas para controlar os elementos de multimídia e propiciar interação ao usuário. Os programas de autoria fornecem: • Métodos para que os usuários interajam no projeto. • Facilidades para criar e editar texto, imagens etc. • Gerenciamento de periféricos. Os programas de autoria fornecem a estrutura necessária para organizar e editar os elementos de um projeto multimídia, incluindo gráficos, sons, animações e videoclipes. Estes programas são utilizados para o desenvolvimento da interatividade e da interface do usuário, para apresentar seu projeto na tela e para agrupar os elementos de multimídia em um projeto único e coeso. Estas ferramentas fornecem um ambiente integrado para a combinação do conteúdo e das funções do projeto. Os sistemas normalmente incluem a habilidade de criar, editar e importar tipos específicos de dados; juntar dados brutos em uma seqüência de reprodução; e fornecer um método ou linguagem estruturada para responder a entradas do usuário. Projeto multimídia Antes de começar um projeto multimídia, deve-se desenvolver uma direção do seu escopo e conteúdo. Para tanto se faz necessário formar, em nossa mente, uma idéia coesa na medida em que se pensa em vários métodos disponíveis para transmitir as mensagens aos usuários. Depois é essencial que seja desenvolvido um esboço organizado e um planejamento sensato em termos de quais habilidades, tempo, orçamento, ferramentas e recursos estão disponíveis. O software, as mensagens e o conteúdo apresentado na interface humana constituem junto, um projeto de multimídia. Um Projeto de Multimídia não precisa ser interativo visto que os usuários podem conectar-se para agradar olhos e ouvidos assim como faz o cinema e a televisão. Tipos de projeto multimídia • Linear, quando começa num ponto e é executado até o fim, por exemplo: filmes, cinema ou televisão. • Não linear, (ou interativo) quando o controle da movimentação pelo conteúdo é permitido aos usuários à sua própria vontade. Determinar como um usuário irá interagir e movimentar-se pelo conteúdo de um projeto requer grande atenção nas mensagens, esboço, arte-final e na programação. Um bom projeto pode ser estragado se tiver uma interface mal projetada ou com o conteúdo inadequado ou incorreto. Um Projeto de Multimídia é multidisciplinar e exige delegação de tarefas de acordo com a habilitação e a competência de cada membro do grupo. Alguns projetos de multimídia podem ser tão simples que se podem substituir todos os estágios de organização, planejamento, produção e teste por um único trabalho, fazendo a multimídia instantaneamente, por exemplo, em uma apresentação de uma reunião semanal sobre a performance da produção da empresa em que sejam inseridos sons de arquivos Midi ou Wave. Entretanto em projetos mais complexos, faz-se necessário sua divisão em vários estágios. 3 meio da utilização de palavras que tenham significados precisos e fortes o suficiente para expressar o que você precisa dizer, por exemplo: • VOLTE! Pode ser mais forte do que Vá para a anterior; • Saia! Pode ser mais forte do que Feche. Fontes e faces Quando o computador desenha a letra A na tela ou na impressora, deve saber como representá-la. Ele faz isso de acordo com o hardware disponível e com a sua especificação de escolha de tipos e fontes disponíveis. Monitores de alta resolução e impressoras podem tornar a aparência dos caracteres mais atraente e variada. Atualmente a ampla seleção de programas de fontes ajuda a encontrar a face e a fonte adequadas às necessidades do projeto. A A A A A A A A A Figura 3.2 – O caractere A representado em diferentes fontes. Uma Face é uma família de caracteres gráficos que normalmente inclui muitos tamanhos e estilos de tipos. Uma Fonte é um conjunto de caracteres de um único tamanho e estilo pertencente a uma família de face particular. Na fig. 3.2 podemos observar as diferenças existentes na grafia do caractere À ao utilizarmos fontes diferentes. Tamanhos e estilos de fontes Tamanhos e tipos geralmente são expressos em pontos; um ponto corresponde a 0,0138 polegadas ou aproximadamente 1/72 de uma polegada. Os Estilos normais das fontes são: negrito, itálico (oblíquo) e sublinhado; outros atributos como contorno de caracteres pode ser adicionado pelo programa, por exemplo: • Arial, Times New Roman e Courier New são exemplos de faces. • Times 28 pontos itálico é uma fonte. Figura 3.3 - Caixa de formatação de texto do MS-Word. É comum confundir os termos fonte e face. Dependendo do tipo do computador (PC, Macintosh etc.) caracteres identificados em uma fonte podem oferecer diferenças de formato e tamanho. 6 Diferenças entre caracteres iguais Os caracteres identificados em uma fonte em particular (por exemplo, Courier New 12 pontos) não se parecem quando se comparam os ambientes Macintosh e Windows. Um tamanho de ponto não descreve exatamente a altura ou a largura dos seus caracteres, podendo variar de acordo com a resolução dos monitores. Isso acontece porque a altura x (a altura da letra minúscula x, veja na fig. 3.4) de duas fontes pode variar embora a altura das letras minúsculas destas fontes possa ser a mesma. Figura 3.4 - Atributos de caracteres. A distância da parte superior das letras maiúsculas até a parte inferior das letras descendentes (como as letras g e y) normalmente define o tamanho de uma fonte do computador. As fontes de computador adicionam espaço abaixo das letras descendentes (e algumas vezes acima) para fornecer o espaçamento de linha ou entrelinhamento apropriado. O entrelinhamento pode ser ajustado no computador com as opções linha e ponto, na fig. 3.5 observamos a janela de ajuste de entrelinhamento do MS-Word. Fig.3.5 - Ajuste de entrelinhamento do MS-Word. Quando o tipo era definido à mão, o tipo de uma única fonte era sempre armazenado em duas caixas: • Alta, letras maiúsculas (caixa alta) e; • Baixa, letras minúsculas (caixa baixa). Em algumas situações, como em senhas, o computador é sensível à caixa. Mas na maioria das situações que requerem entrada pelo teclado o computador reconhece as formas da caixa alta e caixa baixa de um caractere como iguais. Estudos mostram que 7 palavras e frases com letras com caixas alta e baixa misturadas são mais fáceis de ler do que todas elas em caixa alta. Antigamente, para se escrever um caractere, era necessário procurar os formatos em uma tabela de mapa de bits contendo uma representação de cada caractere em todos os tamanhos. Atualmente existem formatos que descrevem cada caractere em termos de construções matemáticas, por ex.: Postscript (curvas de Bisei) e Truetype (curvas quadráticas); principais vantagens: • Melhor definição do caractere, em qualquer definição tanto com 10 pontos quanto com 100 pontos e; • Maior velocidade de impressão. As fontes de mapa de bits, Truetype e Postscript não são apresentadas (ou impressas) exatamente da mesma forma, embora possam compartilhar o mesmo nome e tamanho. Fórmulas diferentes são utilizadas pelas três tecnologias. Isso significa que a quebra de palavra em um campo de texto pode mudar. Sendo assim deve-se ter cuidado ao criar um campo ou botão que ajuste precisamente o texto apresentado com a fonte Postscript, este, ao ser apresentado com a mesma fonte Truetype poderá ser truncado ou quebrado, destruindo o layout do botão. Ao se imaginar um projeto multimídia que não tenha nenhum texto, o seu conteúdo poderia não ser absolutamente complexo, entretanto o projetista precisaria utilizar muitas figuras e símbolos para orientar o público a movimentar-se pelo projeto. Certamente voz e som poderiam cumprir esta tarefa, mas o público logo ficaria cansado visto que prestar atenção nas palavras faladas requer mais esforço do que procurar um texto. Palavras e símbolos em qualquer forma, falada ou escrita, transmitem um significado compreensível e amplamente compartilhado por um número maior de pessoas – com exatidão de detalhes. Um item exclusivo do texto de um menu acompanhado por uma única ação (clique do mouse, ou o pressionar de uma tecla, ou o monitor de vídeo, com o dedo) requer um pequeno treinamento e deve ser claro e imediato. Deve-se usar texto em títulos e cabeçalhos (sobre o que se está falando), em menus (para onde ir), para movimentar-se (como chegar lá) e para o conteúdo (o que será visto quando chegar lá). Na elaboração de um sistema de movimentação, deve se levar o usuário a um destino em particular com poucas ações e no mínimo tempo possível. Se o usuário não precisar do botão Ajuda para chegar lá, significa que o projeto está no caminho certo. A serifa Assim como a propaganda de uma casa pode ser feita por um corretor de imóveis, um vinho pode ser lembrado de diferentes maneiras pelos críticos de culinária e a plataforma de um candidato político também pode variar, as faces podem ser descritas de muitos modos. O tipo do caractere tem sido caracterizado como feminino, masculino, delicado, formal, cômico, jornalístico, técnico etc. Entretanto há um método para a categorização de faces que é universalmente entendido, e ele tem menos a ver com a resposta do leitor em relação ao tipo do que com as propriedades mecânicas e históricas do tipo. Este método utiliza os termos serif e sans serif. Serif e sans serif é o modo mais simples de categorizar uma face; o tipo tem uma serifa ou não. Serifa é um pequeno arremate ou decoração no final de uma letra retocada, exemplo de fontes: • Com serifa: TIMES, COURIER, ANTIQUA; normalmente usadas para o corpo do texto, pois ajuda a guiar os olhos do leitor ao longo da linha. 8 • Ao quadruplicar a potência de saída de som aumenta-se de 6 dB o nível de pressão do som; ao gerar um som 100 vezes mais potente, o aumento em dB é aumentado de 20 dB (e não cem vezes). O som é um elemento chave na comunicação. Basta imaginar o efeito resultante de um aparelho de televisão apresentando um programa onde o volume esteja extremamente alto, ou mesmo a parada total do som no meio da projeção de um filme. A presença do som amplia bastante o efeito de uma apresentação gráfica, especialmente em um vídeo ou em uma animação. O ser humano percebe o som em uma faixa extraordinariamente ampla, por exemplo: • Sussurro muito baixo: 30 dB ou 0,00000001 W • Voz em uma conversa: 70 dB ou 0,00001 W • Uma pessoa gritando: 90 dB ou 0,001 W • Bate-estaca grande: 120 dB ou 1 W • Motor a jato: 170 dB ou 100.000 W Existem questões muito interessantes relacionadas mais à acústica do que propriamente ao volume e ao pitch. Há vários textos que discutem, por exemplo, o fato de o dó em um violão não soar como o de um piano, ou do fato de uma criança poder ouvir sons em determinadas freqüências impossíveis de serem ouvidas por adultos com audição prejudicada devido à idade. Em projetos multimídia normalmente não se exige conhecimentos especializados em harmonia, intervalos, ondas notações, oitavas ou física de acústica ou vibração. Entretanto é necessário saber: • Como criar sons. • Como gravar e editar sons. • Como incorporar sons ao software. O som pode ser usado imediatamente tanto no Macintosh quanto no PC, pois os bips e avisos do sistema estão disponíveis assim que o sistema operacional é instalado. Em versões do Windows inferiores ao W2000, normalmente quando se executa arquivos do tipo WAV por meio de um alto falante da placa do PC todas as interrupções são desativadas automaticamente, fazendo o mouse ou o teclado ficarem inativos ao executar os sons. Pode-se digitalizar som a partir de qualquer fonte natural ou pré-gravada (microfone, fitas K7 etc.). O som digitalizado é “amostrado”, isto é, em uma pequena fração de segundo uma amostra do som é capturada e armazenada como informação digital (bits e bytes). A freqüência com que as amostras são capturadas determina a taxa de amostragem, veja na fig. 4.2. A quantidade de informações armazenadas a cada amostragem determina o tamanho da amostra. Quanto maior a freqüência de captura e mais dados armazenados maior a resolução e a qualidade do som capturado. 11 4.2 - Exemplo de amostragem do som. É impossível reconstruir a forma da onda original se a freqüência da amostragem for muito baixa. As três freqüências de amostragens mais usadas na multimídia são 44.1kHz, 22.05 kHz e 11.025 KHz. Os tamanhos das amostragens são: • 8 bits, 256 unidades para descrever a faixa dinâmica ou amplitude (o nível de som capturado naquele momento) • 16 bits, 65536 unidades para descrevera faixa dinâmica. Um conceito importante é o de quantização, é quando o valor da amostragem é arredondado para o número inteiro mais próximo. Se a amplitude for maior que os cortes disponíveis ocorrerão cortes nas partes superior e inferior das ondas. A quantização pode produzir um ruído de assobio indesejado no fundo e o corte pode distorcer completamente o som, veja um exemplo na fig.4.3. 4.3 - Exemplo de quantização e corte. Existe um padrão internacional, ISSO 10149, para codificar digitalmente o estéreo de alta qualidade do mercado consumidor de música em CD. Os desenvolvedores deste padrão declaram que o tamanho da amostragem de áudio e a taxa de amostragem (16 bits @ 44,1 kHz) permitem a reprodução exata de todos os sons que os seres humanos podem ouvir. Para armazenar 11 segundos de som stereo pode-se gastar até 1 MB de disco. O som monoaural (mono) normalmente consome a metade dos recursos do stereo. Técnicas de compactação podem permitir a redução em 8 vezes o consumo de espaço, perdendo-se entretanto na fidelidade do som. Para saber o consumo de disco para apenas alguns segundos de gravação, podem-se utilizar as fórmulas: Bytes por segundo = (taxa de amostragem * bits por amostra) / 8 Eq.1. 12 Gravação mono: Equação 5.1 Tamanho_arquivo = taxa_amostragem x duração_gravação x (bits por amostra / 8) x 1 Gravação stereo: Equação 5.2 Tamanho_arquivo = taxa_amostragem x duração_gravação x (bits por amostra / 8) x 2 No ato do armazenamento em disco surgem algumas perguntas importantes e que se não respondidas corretamente podem levar a ocorrência de graves problemas na reprodução do som, são elas: 1. Quanta qualidade de som pode-se sacrificar para reduzir o armazenamento? 2. Qual a melhor técnica de compactação? 3. O som compactado funcionará na plataforma hardware (PC)? Musical instrument digital interface - MIDI É um padrão, de domínio público da indústria, desenvolvido no início dos anos 80 que permite que os sintetizadores de música e som de diferentes fabricantes se comuniquem entre si enviando mensagens via cabos conectados nos dispositivos. Dentro da MIDI há também um protocolo para passar descrições detalhadas de uma partitura musical tais como as notas, as seqüências de notas e qual instrumento as tocarão. Um arquivo MIDI é significativamente menor (por segundo de som transmitido para o usuário) do que arquivos equivalentes de formas de ondas digitalizadas. Necessita-se de um programa seqüenciador e de um sintetizador de som (em geral existente nas placas de som de PCs). Um teclado MIDI também é útil para simplificar a criação de partituras musicais. Entretanto o mesmo não é necessário para a execução da música. O programa seqüenciador grava suas ações no teclado MIDI (ou em outro dispositivo) em tempo real e tocará exatamente as notas que você tocou no teclado; uma cópia da partitura também pode ser impressa no papel. Os sons MIDI são gerados a partir de: 1. Fórmulas matemáticas (síntese FM), mais baratas. 2. Gravações digitais curtas de instrumentos reais (amostragens), melhor fidelidade. 3. A escolha entre estas duas técnicas envolve considerações de hardware e custos. Criar arquivos MIDI é tão complexo quanto gravar bons arquivos de amostragens, então é melhor investir para encontrar alguém que já tenha configurado o equipamento e as habilidades para criar sua partitura, em vez de investir em hardware e aprender música. Para uma pessoa que conhece música “de ouvido”, mas não consegue ler uma partitura, a MIDI é de grande utilidade. O programa seqüenciador pode ajudar a criar a música ideal para as apresentações em computador. A maioria dos desenvolvedores grava seus materiais de som em fitas K7 como primeiro passo no processo de digitalização. Com a fita, é possível fazer muitas tomadas do mesmo som ou voz, ouvir todas elas e selecionar as melhores para digitalizar. Gravando em uma mídia barata em vez de diretamente no disco, você evita preencher seu disco rígido com “lixo”. Projetos que requerem som com a qualidade de CD (41,1 kHz e 16 bits) devem ser desenvolvidos em estúdios profissionais, como apresentado na fig. 4.4. A gravação de som de alta fidelidade é uma arte especializada, uma habilidade aprendida em grande parte por tentativas e erros, como na fotografia. Ao desejar faze-lo por si só em níveis de qualidade de CD, o desenvolvedor deve estar preparado para investir em uma sala 13 transmitir visto a redução de seu tamanho reduzido, o que resulta na diminuição do tempo necessário para a transferência. Existem padrões de compressão que permitem obter som com baixa perda de fidelidade com um tamanho de arquivo muitas vezes menor do que o original, permitindo que o som seja transmitido pela internet de maneira rápida e eficiente. Entretanto não existe, ainda, um consenso entre os vários algoritmos de compactação, de qual seja o melhor. A tab. 4.2 apresenta uma comparação de desempenho de sistemas de áudio. Alguns dos principais padrões estão descritos a seguir. • MPEGplus baseado no padrão MPEG1-Layer 2, similar ao MP3. • Windows Media Áudio, ou "ASF“, é um algoritmo que, apesar de desenvolvido pela Microsoft, não é fornecido com o Windows. • Real Áudio é um dos formatos de compressão mais antigos, foi desenvolvido inicialmente para aplicações de voz e posteriormente foram desenvolvidos algoritmos para música e vídeo. • MPEG Layer III é o próprio que MP3, aberto e disponível para qualquer um utilizar é a melhor relação custo-benefício do momento. • MOV (QDesign2) é o novo código QuickTime para áudio. • TwinVQ produzido pela empresa NNT é, a princípio, o principal concorrente do MP3. Tabela 4.2 - Desempenho dos sistemas de áudio. Os exemplos de mídia digital a seguir mostram os requisitos de espaço de armazenamento para um segundo de gravação de um arquivo de áudio: • Um sinal de áudio de qualidade de telefone sem compressão (8 bits amostrado em 8 kHz) leva a uma largura de banda de 64 kbps e necessita de 8 KB para armazenar um segundo de gravação; • Um sinal de áudio stereo de qualidade de CD sem compressão (16 bits amostrado em 44,1 kHz) leva a uma largura de banda de 44,1 kHz x 16 bits = 705 kbps e necessita de 88.2 KB para armazenar um segundo de gravação. Exercícios 1. Supondo uma música tocada a partir de um CD, sampleado em 44 kHz. A freqüência máxima que se pode ouvir é: 16 a. 44 kHz b. 20 kHz c. 22 kHz d. 2 kHz 2. Quantos bytes terão um minuto de gravação musical em qualidade de CD 44,1 kHz de taxa de amostragem e resolução de 16 bits? Agora se a mesma for gravada em stereo, qual será o tamanho do arquivo? 3. Ao ouvir um som gravado com taxa de amostragem de 22.000 amostras por segundo, este seria de melhor fidelidade se amostrado a 44.000 amostras por segundo? 4. Quais são os benefícios do uso da compressão em aplicações multimídia: a. O áudio fica melhor. b. São removidas freqüências indesejadas. c. Economia de espaço em disco e memória. 5. Desenvolver locuções para o projeto multimídia de promoção do seu curso. No protótipo multimídia, deverão existir sons do tipo wave e midi. 17 Capítulo 5 Imagens Características da Visão O globo ocular é uma esfera com cerca de 2 cm de diâmetro e 7 g de peso. Quando olhamos na direção de algum objeto, a imagem atravessa primeiramente à córnea, uma película transparente que protege o olho, conforme pode ser observado na fig. 5.1. Chega, então, à íris, que regula a quantidade de luz recebida por meio de uma abertura chamada pupila, batizada popularmente de “menina dos olhos”. Quanto maior a pupila, mais luz entra no olho. Passada a pupila, a imagem chega a uma lente, o cristalino, e é focada sobre a retina. A lente do olho produz uma imagem invertida, e o cérebro a converte para a posição correta. Na retina, mais de cem milhões de células fotorreceptoras transformam as ondas luminosas em impulsos eletroquímicos, que são decodificados pelo cérebro. Figura 5.1 – O olho humano. Essas células fotorreceptoras podem ser classificadas em dois grupos: os cones e os bastonetes. Os bastonetes são os mais exigidos às noites, pois requerem pouca luz para funcionar, mas não conseguem distinguir cores. As células responsáveis pela visão das cores são os cones: uns são sensíveis ao azul, outros ao vermelho e outros ao verde. A estimulação combinada desses três grupos de cones é capaz de produzir toda a extensa gama de cores que o ser humano enxerga. Embora nós possamos contar com nossos olhos para nos trazer a maior parte das informações do mundo externo, eles não são capazes de revelar tudo. Nós podemos ver apenas objetos que emitam ou sejam iluminados por ondas de luz em nosso alcance de percepção, que representa somente 1/70 de todo o espectro eletromagnético. O olho humano enxerga radiações luminosas entre 4 mil e 8 mil angströns, unidade de comprimento de onda. Homem e macaco são os únicos mamíferos capazes de enxergar cores. 18 Figura 5.4 - Seleção de cores no MS-Office. A redução de cores é um processo no qual o valor das cores de cada pixel (juntamente com seus vizinhos mais próximos) é alterado para o valor da cor correspondente mais próxima na paleta-alvo, a partir de um algoritmo matemático. Qualquer pixel pode ser mapeado não para a sua entrada de paleta mais próxima, mas para a média de alguma área da imagem. Na fig. 5.4 observamos a janela de seleção de cores do MS-Office. Cada fabricante produz um formato de arquivo diferente que possibilita a manipulação mais rápida e eficiente possível das imagens produzidas por seus programas. Entretanto existem programas transferidores, que permitem a transferência de formatos de arquivos de um tipo para outro bem como de uma plataforma para outra (PC x MAC) a tab. 5.2 apresenta alguns exemplos de tipos de arquivos. Tabela 5.2 - Tipos de arquivos. Apesar de que os formatos mais utilizados na internet atualmente sejam JPG e GIF, novos formatos estão sendo desenvolvidos ou já existem mas ainda não foram popularizados. O maior concorrente dos formatos JPG/GIF para a internet atualmente é o PNG – Portable Network Graphic, que apareceu em 1996 com o objetivo de melhorar algumas características dos arquivos GIF, especialmente pelo fato de que o GIF possui alguns algoritmos patenteados. O formato PNG permite comprimir as imagens sem haver perda de qualidade, ao contrário do que acontece com o formato JPG. 21 O Formato GIF O formato GIF - Graphics Interchange Format é um formato de imagem de mapa de bits muito usado na internet, quer para imagens fixas, quer para animações. O formato GIF foi introduzido em 1987 pela CompuServe a fim de fornecer um formato de imagem em cores, em substituição do formato anterior, RLE, que era apenas em preto e branco. O GIF se baseia no algoritmo Lempel-Ziv Welch - LZW, que pode transformar grandes arquivos em arquivos menores e mais adaptados ao uso na Web. O algoritmo LZW compacta uma série de símbolos em um único símbolo multiplicado pelo número de vezes em que ele aparece. Por exemplo, se 10 pixels pretos foram agrupados em uma imagem, os formatos de arquivos sem compactação representariam os 10 pixels pretos como 10 símbolos. Entretanto, o formato GIF identifica esta repetição usando apenas dois símbolos: o número de vezes de repetições de cores e a cor em si. Em vez de 10 elementos de dados, há apenas dois. Este algoritmo é bem mais eficiente que o run-length encoding usado por formatos como o PCX e o MacPaint, permitindo que imagens relativamente grandes sejam baixadas num tempo razoável, mesmo com modems muito lentos. Este formato de arquivo atualmente é amplamente utilizado na web por causa do seu tamanho compacto. No entanto, este formato possui uma paleta limitada de cores (256 no máximo), impedindo o seu uso prático na compactação de fotografias. Por causa desta limitação o formato GIF é utilizado para armazenar ícones, pequenas animações ou imagens com áreas extensas de cores chapadas. Na base do formato GIF está o conceito de Data Stream, ou canal de dados. O formato é na realidade um protocolo entre uma fonte emissora de imagens e uma aplicação de destino que realiza a apresentação das imagens. Quando a fonte emissora se encontra armazenada num arquivo, dizemos que é um arquivo em formato GIF. Um arquivo, ou canal de dados, no formato GIF pode conter mais do que uma imagem. Blocos de controle inseridos entre imagens sucessivas determinam o tempo durante o qual cada imagem persistirá na unidade gráfica de saída, permitindo assim a apresentação seqüenciada de várias imagens. Se as imagens constituírem uma seqüência animada, estaremos perante o que se designa usualmente por GIFs animados (animated GIFs). Os GIF's transparentes permitem especificar uma única cor que se tornará transparente, permitindo assim visualizar-se o background por entre o GIF que se definiu como transparente. Este atributo é bastante útil quando quer criar a ilusão de "sombra irregular", em vez de colocar um quadrado com um aspecto menos agradável em volta do texto, o GIF transparente irá permitir fazer aparecer o texto que escreveu diretamente da página. Um GIF entrelaçado é um arquivo GIF que é carregado aos poucos. O que acontece, como na televisão, vai-se visualizando as linhas de cima para baixo, voltando depois ao início para preencher as linhas que não foram preenchidas, é em grupos de 8 linhas - começa-se por cada oitava, depois por cada quarta, por cada segunda e o restante. O efeito de entrelaçamento, não acelera o processo de carregamento da imagem. Trata-se apenas de uma ilusão, embora faça parecer ao usuário que de fato acelere o processo de "surgimento" da imagem porque o usuário vai vendo o seu aparecimento. 22 O Formato JPG Desde junho de 1982, WG8 (Grupo de trabalho 8) da ISO (Organização Internacional de Padronização) tem trabalhado na padronização de compressão e descompressão de imagens. Em junho de 1987, dez técnicas diferentes para imagens coloridas de tons de cinza foram apresentadas. Estas técnicas foram comparadas, e foram analisados três delas mais adiante. Uma transformação adaptável da técnica de codificação baseada no DCT (Discrete Cosine Transform, ou Transformação Coseno Discreta), alcançou o melhor resultado e, então, foi adotado para JPEG, que um mecanismo padrão de compressão de imagem, elaborado pelo comitê Joint Photographic Experts Group e em 1992 se tornou um Padrão ISO Internacional (IS). O formato JPG foi projetado para a compactação de imagens em cores ou tons de cinza de cenas do "mundo real", não funcionando muito bem com imagens não realísticas, como desenhos gerados por computador. Uma codificação e decodificação rápida de imagens também é usada para seqüências de vídeo conhecida como Motion JPEG. Hoje, partes do JPEG já estão disponíveis como pacotes de software. O formato JPEG cumpre as seguintes exigências para garantir futuras distribuições e aplicações: 1. A implementação do JPEG deve ser independente do tamanho da imagem. 2. A implementação do JPEG deve ser aplicável a qualquer imagem. 3. A representação de cor deve ser independente de implementação especial. 4. O conteúdo da imagem pode ser de qualquer complexidade, com qualquer característica estatística. 5. A especificação padrão de JPEG deve ser estado-de-arte (ou próximo) relativo ao fator de compressão e qualidade de imagem alcançada. 6. A complexidade do processo têm que permitir uma solução de software para rodar em tantos processadores padrões disponíveis quanto possível. Adicionalmente, o uso de hardware especializado deve aumentar qualidade de imagem substancialmente. 7. Decodificação seqüencial (linha-por-linha) e decodificação progressiva (refinamento da imagem inteira) deve ser possível Uma característica útil do JPEG é que o grau de perda da qualidade pode ser controlado ajustando-se os parâmetros de compressão. Rigorosamente falando, JPEG é uma família de algoritmos de compressão e não se refere a nenhum formato específico de arquivo de imagem. Podemos até mesmo não efetuar compactação nenhuma, quando então as cores da imagem não são alteradas, mas apenas suas áreas de mesma cor são armazenadas de forma compactada. Dependendo do programa escolhido, o usuário pode selecionar a qualidade da imagem reproduzida, o tempo de processamento para a compressão e o tamanho da imagem comprimida escolhendo parâmetros individuais apropriados. Figura 5.4 - Passos do processo de compressão JPEG. As aplicações não precisam incluir um codificador e um decodificador ao mesmo tempo. Em muitas aplicações só é preciso um único deles. O fluxo de dados codificado tem um formato de intercâmbio fixo que inclui dados de imagem codificados, como também os parâmetros escolhidos e tabelas do processo de codificação. Se o processo de compressão e descompressão concordam em um conjunto comum de tabelas de codificação a ser usado, por exemplo, os dados das tabelas respectivas deles não precisam ser incluídos no fluxo de dados. Existe aí um contexto comum entre codificar e 23 “Tarzan” e “Fantasia 2000”, dos estúdios Disney, e “A Caminho de El Dorado” e “O Príncipe do Egito”, da DreamWorks. O stop motion é uma animação tão trabalhosa quanto a tradicional ou a digital. Ela utiliza sets em miniatura, onde bonecos de plástico maleável são modelados em 24 posições diferentes para cada segundo de filme. As cenas são filmadas quadro a quadro, depois editadas e sonorizadas. Nessa fase, o computador pode ser útil para criar efeitos especiais de chuva, sombra, fogo ou fumaça. Em “A Fuga das Galinhas”, usou-se o Commotion 3.0, software que cria efeitos digitais em imagens em movimento. Apesar da aceitação do stop motion, a maioria dos filmes animados ainda é feita de maneira tradicional, ou seja, desenhada quadro a quadro no papel. Em “A Fuga das Galinhas”, bonecos maleáveis, filmados quadro a quadro, permitem que os personagens se movimentem em três dimensões. A terceira técnica mais usada nos desenhos animados atuais é a computação gráfica. “Toy Story”, de 1995, foi o marco dessa nova era. Totalmente animado por computador pela Walt Disney Pictures e a Pixar Animation Studios, o desenho foi um mergulho definitivo na animação digital. Desde “A Bela e a Fera” (1991), a computação gráfica era usada apenas em combinação com a animação tradicional. Sucesso de público e de crítica, “Toy Story” abriu espaço para outras produções realizadas com tecnologia idêntica, como “Formiguinhaz”, “Vida de Inseto” e, claro, “Toy Story 2”. Cassiopéia também foi realizado desta forma. Ao contrário da animação tradicional, na qual milhares de desenhos precisam ser feitos, o software 3D usado na animação computadorizada permite que se façam alterações sobre a mesma imagem desenhada. A Disney provou isso recentemente misturando imagens reais (live action) com efeitos digitais em Dinossauro. Qualidade versus tamanho em animações Do mesmo modo que com as imagens, o compromisso entre tamanho e qualidade compromete a animação. Uma animação pode rodar mais rápido se é menor em tamanho. A velocidade de apresentação da animação também depende da configuração do computador. A animação pode utilizar os seguintes formatos: 1. Formato FLIC (FLI/FLC), o formato FLI equivale à animação usada pelo 3D Studio e em muitos outros programas baseados em PC e suporta animações de 256 cores em resolução de 320x200; já o formato FLC contém animações de 256 cores para imagens de qualquer resolução (Animator Pro). 2. Formato MPEG (.mpg), é um formato de animação especial que pode ser 40 vezes menor em tamanho de arquivo do que o formato FLIC. Este formato é muito popular na internet visto que seu tamanho reduzido favorece o aumento da velocidade de transmissão. Tal como o JPEG, o MPEG é considerado fortemente sujeito a perdas, visto que dependendo do tipo de compressão a qualidade da imagem fica bastante reduzida. 3. Formato QuickTime (QT/MooV), é o formato padrão de animação do Macintosh, que permite muitos tipos de compressão e resolução além de conter trilhas de áudio, os filmes no QuickTime variam enormemente em tamanho e qualidade dependendo da quantidade de cores e da compressão. Numa comparação simples entre os formatos descritos, podemos observar que para uma animação de 100 quadros em uma resolução de 240x160 o tamanho dos arquivos de acordo com os formatos, será: • FLI/FLC – 3,8 MB; • MPEG – 430 KB; • QuickTime em 8 bits, compressão JPEG e qualidade média – 280 KB; • QuickTime em 8 bits, compressão JPEG e qualidade alta – 1,7 MB; • QuickTime em 8 bits, compressão Vídeo e qualidade média – 1,8 MB; 26 • QuickTime em 16 bits, sem compressão e qualidade média – 7,68 MB; O áudio pode ser facilmente adicionado à animação, utilizando-se pacotes como Aawin, Animator Player e Adobe Premier. Looping e morphing Looping é o processo de tocar a animação continuamente. Podendo ser utilizado quando a animação necessita da criação de poucos quadros, veja na fig. 6.1. Estes quadros tocados em um loop dão à aparência de uma animação longa. Por exemplo, com 3 a 4 quadros representamos os movimentos de um homem caminhando, colocando estes quadros em um loop teremos a impressão de que o homem está caminhando uma longa distância. Figura 6.1 – Exemplo de animação em loop. Podemos fazer loops em animações a partir do primeiro quadro ou a partir de um quadro qualquer. Por exemplo, queremos uma animação que rode uma vez e então repita a partir do quinto quadro, isso pode ser feito a partir da ferramenta de desenvolvimento de animações sem maiores problemas. Morphing, ou metamorfose, é a transformação de uma imagem em outra. Os primeiros programas funcionavam apenas com imagens em duas dimensões, entretanto atualmente já é possível realizar morphing em imagens 3d. A metamorfose envolve a utilização de dois elementos: o elemento inicial, do qual queremos começar a transformação e o elemento final, isto é, aquele onde queremos chegar através da metamorfose. Figura 6.2 – Morphing. A idéia é fazer com que pareça que um item está se transformando fisicamente no outro, conforme fig. 6.2. Para tanto o animador seleciona pontos similares aos dois elementos. Por exemplo, olhos, ouvidos, nariz, cabelo etc. Quando mudamos de um objeto para outro semelhante, por exemplo, rosto para rosto, carro para carro, fica mais fácil encontrar esses pontos semelhantes e a metamorfose funciona bem. Por outro lado, para objetos muito diferentes a metamorfose fica muito mais difícil. 27 Exercícios 1. Quais são as técnicas de animação? 2. Em qual formato o 3D Studio Max cria animações? 3. Quais são as coisas mais importantes quando fazemos a metamorfose entre duas faces? 4. Faça uma animação para a página de promoção do seu curso. 28 Figura 7.2 – Teclado. No Brasil, utiliza-se o teclado padrão ABNT, próprio para as necessidades de digitação dos usuários brasileiros, por exemplo, a existência do “ç” no lado direito do teclado, o que aumenta a produtividade da digitação eliminando a necessidade de pressionar várias teclas em conjunto para a obtenção daquele caractere. Mouse, joystick e TrackBall O mouse é uma ferramenta padrão para a interação cm a interface gráfica. Todos os computadores atualmente exigem um mouse, apesar de ainda existir a possibilidade de se utilizar comandos de teclado para a interação do usuário com o computador. Figura 7.3 – Periféricos apontadores: (a) Mouse, (b) Joystick e (c) TrackBall. Um projeto multimídia deve ser desenvolvido tendo em mente a existência de um mouse, joystick ou TrackBall, como mostrado na fig. 7.3. Entretanto deve-se garantir a existência de comandos de teclas de modo a garantir o funcionamento do programa em situações de emergência. Scanner Os scanners, observar a fig. 7.4, são os olhos do computador pessoal. Eles permitem que o PC converta uma foto ou uma imagem em um código de forma que um programa gráfico ou de editoração eletrônica possa reproduzi-la na tela, imprimi-la através de uma impressora gráfica ou converter páginas datilografadas em páginas possíveis de serem editoradas. Há três tipos básicos de scanner: 1. O scanner alimentado com folhas (sheet-feed), que funciona com rolamentos mecânicos que movem o papel pela cabeça de varredura. 2. O scanner de mesa, onde a página fica estática sobre um vidro, enquanto a cabeça move-se pela página. 3. Os scanners manuais, que dependem da mão humana para mover a cabeça de varredura. 31 Figura 7.4 – Scanners: (a) sheet feed; (b) de mesa e (c) manual. Monitores de vídeo e projetores O monitor de vídeo é o componente que mostra o que está sendo feito no microcomputador. No início os monitores eram apenas monocromáticos, a partir da década de 90, evoluíram para modelos com padrão de cores que chegam a 16 milhões e tamanhos de tela que chegam a 21 polegadas. As principais características dos monitores de vídeo são: • Tamanho da tela - no Brasil os mais comuns são os de 14", esta medida corresponde ao comprimento de sua tela em diagonal. • Dot Pitch - Medida da distância entre dois pontos consecutivos da mesma cor. É o principal responsável pela qualidade de imagem de um monitor. O valor mais comum encontrado em monitores é o de 0,28mm, popularmente chamado .28 dot pitch. • Modo de varredura - Este é outro responsável pela qualidade de imagem quando opera em alta resolução. A imagem na tela é formada por uma seqüência de linhas horizontais e o processo de montagem e remontagem destas linhas é denominado Varredura, veja fig. 7.5. O processo de Varredura pode ser executado de duas maneiras diferentes: o Entrelaçado - São montadas primeiro as linhas ímpares e depois as linhas pares. o Não Entrelaçado - As linhas são montadas uma após a outra de maneira seqüencial. Para a resolução da imagem este é o modo preferencial. 32 Figura 7.5 – Monitor convencional: (a) TRC e (b) varredura. Os monitores convencionais, possuem um Tubo de Raios Catódicos - TRC que bombardeia constantemente as células luminosas da tela formando a imagem. No monitor Leque Cristal Display - LCD a tecnologia usada é diferente, que consiste no uso de cristais líquidos para formar a imagem. A fig. 7.6 apresenta os dois tipos de monitores. Figura 7.6 – Monitores de vídeo: (a) TRC e (b) LCD; (c) Projetor multimídia. Os cristais líquidos são substâncias que tem sua estrutura molecular alterada quando recebem corrente elétrica. Em seu estado normal, estas substâncias são transparentes, mas ao receberem uma carga elétrica tornam-se opacas, impedindo a passagem da luz. Nos visores de cristal líquido mais primitivos, como os dos relógios de pulso, temos apenas estes dois estados, transparente e opaco, ou seja, ou o ponto está aceso ou está apagado. Nos visores mais sofisticados, como os usados em notebooks, temos também estados intermediários, que formam as tonalidades de cinza ou as cores. Estes tons intermediários são obtidos usando-se tensões diferentes. Para formar a tela de um monitor, uma fina camada de cristal líquido é colocada entre duas camadas de vidro, veja na fig.7.7. Estas finas placas possuem pequenos sulcos, isolados entre si, cada um com um eletrodo ligado a um transistor. Cada um destes sulcos representa um dos pontos da imagem. Este sanduíche por sua vez é colocado entre duas camadas de um elemento polarizador. Atrás desta tela é instalada uma fonte de luz, geralmente composta de lâmpadas fluorescentes (usadas por gerarem pouco calor) ou então Leds, responsáveis pela iluminação da tela. 33 Capítulo 8 Autoria Software de autoria de multimídia Ferramentas de autoria fornecem a estrutura necessária para organizar e editar os elementos de um projeto, suas principais utilidades são: • Desenvolvimento da interatividade e da interface do usuário; • Para apresentar o projeto na tela; e • Para agrupar os elementos multimídia em um projeto único e coeso. De acordo com a metáfora usada para sequenciar e organizar elementos e eventos da multimídia, pode-se classificar em dois grupos de ferramentas: • Baseadas em páginas ou fichas; e • Baseadas no tempo e em apresentações. Software de autoria de multimídia – baseado em páginas Nestas ferramentas, os elementos são organizados como páginas de um livro, permitindo: • Sua vinculação em seqüências organizadas. • Saltos para páginas específicas. • Execução de som, animações, vídeos etc. Exemplo: Multimedia ToolBook, ferramenta desenvolvida, no início da década de 90, pela empresa Assymetrix que utiliza a metáfora de um livro para o desenvolvimento de aplicativos. ToolBook surgiu como uma nova ferramenta de autoria voltada para multimídia em geral (na verdade, a primeira versão chegava a se comparar ao Visual Basic), mas atualmente é focada no desenvolvimento de aplicações de Aprendizado on-line (e- learning) e Treinamento Baseado em Computador (TBC/CBT), tutoriais e cursos on-line, via web ou em CD. Possui uma poderosa linguagem de programação própria, o OpenScript. Por ser uma ferramenta específica para a plataforma Windows, possui muitos recursos de integração com o sistema, como use de controle ActiveX e inserção de objetos OLE, plena interação com aplicações via DDE (Dynamic Data Exchange), acesso a biblioteca de programação DLL (32 e 16 bits), suporte a DirectX e MCI. Estes recursos são muito úteis por exemplo quando se deseja criar um tutorial interativo de alguma aplicação Windows. 36 Seu paradigma de desenvolvimento é baseado na analogia a livros. Cada arquivo da aplicação é um livro, composto de páginas (as telas) sobre as quais são dispostos os objetos. Existem também os capítulos (fundos de página), que agrupam conjuntos de páginas similares, bem como os objetos gráficos podem ser agrupados (similar ao recurso que existe em programas de desenho vetorial ou baseados em objetos, como o CorelDraw). Os componentes no ToolBook obedecem assim uma interessante hierarquia de objetos: objetos gráficos  grupos de objetos páginas fundos livro sistema. Em seu foco crescente para a área de ensino on-line, o toolbook introduziu suporte ao protocolo Microsoft Learning Resource iNterChange (LRN), formato baseado em XML para distribuição de conteúdo e-Learning, desenvolvido pelo Projeto IMS e adotado pela Microsoft; e ao padrão Sharable Content Object reference Model (SCORM) da ADLNet, que agrega especificações IMS e AICC para educação on-line. Existem atualmente duas variantes do ToolBook> O ToolBook Instructor, forma mais completa da ferramenta, e o ToolBook Assistant, uma versão apenas com componentes pré-definidos e sem acesso à livre programação de scripts, voltado para autores sem nenhuma familiaridade com programação. Software de autoria de multimídia – baseado no tempo Nestes sistemas, os elementos multimídia e os eventos são organizados ao longo de uma linha de tempo, com resoluções de no máximo 1/30 de segundo. Este tipo de ferramenta permite: • Definição da velocidade de apresentação de estruturas gráficas. • Sincronização de som e imagem. • Saltos para qualquer posição em uma seqüência, permitindo controle interativo e de movimentação. • Exemplo: Macromedia Flash, ferramenta desenvolvida no final dos anos 90 pela empresa Macromedia, onde o desenvolvimento baseia-se no tempo. O Director da Macromedia é uma ferramenta de autoria voltada a multimídia interativa, em CD e Internet. Tem ganho grande enfoque para a internet, onde suas aplicações rodam através do plug in para web Macromedia Shockwave. É uma ferramenta multiplataforma, sendo capaz de gerar arquivos executáveis em Windows e Macintosh (sua plataforma de origem) a partir dos mesmos arquivos fonte, desde que você possua a versão da ferramenta para as duas plataformas. O plug in Shockwave também está disponível para PC/Mac. O Director é baseado na metáfora de “filmes”. Cada arquivo é um filme, onde o andamento da aplicação se dá em um roteiro que exige a sequência de quadros (frames) que são exibidos no palco (a tela) no decorrer do tempo. Os objetos são chamados atores e são agrupados em elenco. Comparação entre o ToolBook e o Director A diferença de paradigma de desenvolvimento entre Director e ToolBook traz algumas implicações de acordo com o tipo de aplicação desejada. Enquanto no Director a animação (o andamento no tempo) é um conceito direto, no ToolBook qualquer ação ou 37 movimento tem que ser programado ou definido explicitamente. Assim, aplicações ricas em animação e sincronização de mídias dinâmicas (vídeo, sons e seqüências de imagem) são mais simples de se fazer no Director. Por outro lado, o paradigma do ToolBook normalmente parece mais natural para uma aplicação onde os elementos de conteúdo sejam apresentados principalmente na forma de telas ou tópicos. No Director é preciso um comando explícito para que você para o andamento do “filme” em uma tela (ou, no conceito dele, em um quadro que está sendo exibido na tela), para exibir por exemplo um menu ou conteúdo mais estático, como textos e fotos. Enquanto no ToolBook os objetos são dispostos em camadas, no Director temos os canais, cujo conceito é bastante análogo. As camadas ou canais definem a ordem de sobreposição de objetos gráficos na tela. No Director, existem também alguns canais especiais,que não são para objetos gráficos (visuais). Um destaque vai para seus dois canais de som, que permitem que dois sons sejam tocados simultaneamente. O Director possui um mecanismo interno para mesclar os dois sons, ideal para combinar, por exemplo, uma trilha sonora com uma locução, que estejam em arquivos separados. Não existe recurso similar nativo no ToolBook, mas existe uma DLL da Microsoft não-oficial chamada WaveMix que promete realizar a operação de combinar dois sons wave e que pode ser usada com o ToolBook. Algumas placas de som também possuem o recurso de tocar simultaneamente mais de um canal de som em forma de onda (wave), mas isso requer uso de controles e comandos específicos para o hardware. Extensões e facilidades Os recursos do ToolBook podem ser amplificados com a adição de componentes de automação ActiveX, bibliotecas de programação DLL do Windows e também bibliotecas de objetos e funções feitas no próprio ToolBook/OpenScript (chamados livros de sistema, systemBooks). Já o Director possui um formato de extensão próprio, plugins chamados Xtras. Os Xtras podem adicionar novos recursos ao ambiente de desenvolvimento, novos componentes ou novas funções para a programação Lingo. Embora o formato Xtras exija que os plugins sejam desenvolvidos especificamente para o Director, o formato próprio garante certa independência de plataforma. A maioria dos desenvolvedores de Xtras faz versão de seus plugins para as duas plataformas PC e Mac, possibilitando que seus componentes possam ser usados em aplicações multiplataforma. É interessante notar também que embora o ToolBook e Director possuam poderosa linguagem de programação de scripts própria, ambos oferecem recursos para disponibilizar bibliotecas de componentes, funções e comportamentos (ações) pré- progrmados e prontos para usar, agilizando o desenvolvimento e facilitando o uso por quem não tem familiaridade com programação ou não domina a linguagem da ferramenta. Acesso a banco de dados Há algum suporte nativo de banco de dados no ToolBook. Desde o Instructor 7.1, a ferramenta inclui suporte a ADO: através de Microsoft OLE DB, Instructor desfruta da tecnologia Microsoft ADO (ActiveX Data Objects) para acesso a qualquer banco de dados no Windows, incluindo Microsoft Access e servidores SQL, desde que se tenha o respectivo driver de interface ADO instalado. Atualmente, existem também diversos componentes ActiveX de terceiros para acesso a banco de dados no Windows via ADO e OLE-DB que podem ser utilizados com o ToolBook. 38 Capítulo 9 Fatores Humanos no Projeto Multimídia Psicologia Cognitiva Os conhecimentos sobre as características humanas no tratamento da informação são muito importantes no projeto de um software interativo. o projetista deve levar em conta tanto as informações provenientes da análise ergonômica do trabalho (tais como idade, sexo, formação específica, conhecimentos, estratégias etc.) quanto às informações ligadas as suas habilidades e capacidades em termos de conhecimento. Na medida em que se imagina o computador como uma continuidade do cérebro humano, é fundamental conhecer como se processam os tratamentos cognitivos na realização de uma tarefa informatizada. Na área da psicologia existem vários estudos, realizados nos últimos anos, que abordam o tratamento da informação nesse contexto existem duas linhas de pensamento: 1. Behaviorismo, que trata das leis gerais sobre o comportamento humano enfocando exclusivamente a relação entre o estímulo e a resposta observada, sem se preocupar em como o ser humano processou internamente as informações; e 2. Cognitivismo, ou construtivismo, que se preocupa com os mecanismos que descrevem seu funcionamento e que enfoca, entre outras coisas, os modelos mentais (ou as representações simbólicas) que o humano elabora a partir da realidade que o cerca. Em suas intervenções para a concepção e avaliação de interfaces humano- computador, os projetistas devem valer-se dos resultados de ambas as linhas de pensamento. Modelos mentais O sistema cognitivo humano é caracterizado pelo tratamento de informações simbólicas, isto é, as pessoas elaboram e trabalham sobre a realidade através de modelos mentais ou representações que elaboram a partir de uma realidade. esses modelos, que condicionam totalmente o comportamento do indivíduo, constituem a sua visão da realidade, que é modificada e simplificada pelo o que é importante para ele., essa visão amplia os elementos pertinentes e elimina os secundários estando intimamente ligada aos conhecimentos já adquiridos e a compreensão que o indivíduo tem do problema. Os modelos mentais relativos a um sistema interativo, por exemplo, variam de indivíduo para indivíduo, em função de suas experiências passadas, evoluindo neste indivíduo em função de seu aprendizado, assim podemos distinguir, numa determinada situação de trabalho informatizada, duas conseqüências: 41 • As diferenças de modelos mentais entre usuários novatos e experientes; e • As diferenças de modelos mentais entre usuários, segundo as funções por eles exercidas, de gestão ou de operação. A interface humano-computador deste sistema, deve ser flexível o suficiente, para adequar-se aos diferentes tipos de usuários, ao mesmo tempo em que possa adaptar-se a evolução das características de usuário especifico durante o seu processo de aprendizagem do sistema. As teorias cognitivas descrevem dois tipos básicos de modelos mentais: 1. Os que representam procedimentos; e 2. Os que representam conceitos. Ambos se organizam em redes hierárquicas de conhecimentos, semânticos e procedurais sobre, por exemplo, os significados das funções do sistema interativo e sobre como se operam estas funções. as lógicas de funcionamento e de operação de um dispositivo estão associadas à natureza destes dois tipos de representações mentais e contribuem igualmente para o seu entendimento. daí a necessidade dos textos de ajuda explorarem estas duas perspectivas de um software interativo; como funcionam e como se operam suas funções. Para o projeto de interfaces humano-computador, além da variabilidade nos indivíduos e no tempo, é importante saber o que favorece ou limita a armazenagem e a recuperação destas representações em estruturas de memória. A memória Os modelos mentais são armazenados e recuperados através de um conjunto de fenômenos que tem em comum o fato de restituir a informação, com maior ou menor transformação, após certo tempo, quando a fonte desta informação não esta mais presente. a capacidade de memorização humana pode encadear os seguintes processos: • reconhecimento: é a capacidade do homem de reencontrar no seu campo perceptivo elementos anteriormente memorizados (reconhecer o nome de uma opção de menu após muito tempo sem vê-la); • reconstrução: é a capacidade do homem de recolocar os elementos memorizados na sua organização anterior (quais eram os parâmetros iniciais da configuração de um parágrafo de texto antes de reconfigurá-lo?); e • lembrança: é a capacidade do homem de recuperar, de forma integral, uma situação anteriormente vivenciada, sem a presença de nenhum dos elementos dessa situação. Os conhecimentos científicos atuais não permitem definir, de forma exata, os ”custos fisiológicos” associados a estes processos. entretanto, no que se refere a uma pessoa que se vale de um aplicativo de produtividade, como um editor de textos ou planilha, de forma intermitente, é possível considerar que a lembrança do nome exato de um comando, para entrada em uma linha, seja mais custosa do que a reconhecer em um painel de menu, outros fatores influem nos custos cognitivos da memorização: • O número de informações a serem detectadas e tratadas; • A redundância ou semelhança entre as informações; • A velocidade de apresentação das informações; • Os prazos para elaboração de respostas motoras em relação á percepção das informações etc. 42 O armazenamento e a recuperação da informação podem ser explicadas a partir de fenômenos em dois níveis de atividades: nível neurofisiológico e nível cognitivo. A memória conexionista O modelo biônico/conexionista explica a memória a partir da neurofisiologia do cérebro humano, com neurônios (células nervosas) e sinapses (comunicação entre elas) conforme a fig. 9.1. este modelo de memória propõe um modo de armazenagem, onde a informação é distribuída sobre um conjunto de ligações sinápticas. Figura 9.1 – Neurônio humano. O funcionamento de um sistema conexionista é determinado pela rede de ligações entre os neurônios (unidades de tratamento), e pelos pesos das ligações que determinam as ocorrências de sinapses (comunicação entre eles). as redes de neurônios são capazes de modificar sua própria conectividade, através da modificação dos pesos das ligações, conforme fig. 9.2. isso ocorre tanto em função de uma situação externa, ou de sua atividade interna. a rede assume assim, novos estados, e passa a fornecer respostas diferenciadas em função das restrições de uma situação especifica. Figura 9.2 – Rede neural artificial. A memória cibernética computacional 43 A percepção visual O sistema visual humano é organizado segundo os níveis: 1. neuro-sensorial; 2. perceptivo; e 3. cognitivo. O nível neuro-sensorial envolve a transformação dos traços elementares da estimulação visual em primitivas visuais que, a nível perceptível, são estruturadas seguindo diversos mecanismos conhecidos como leis de GESTALT. estas leis descrevem as condições de aparecimento de grupamentos e incluem os princípios básicos da proximidade, similaridade, continuidade e conectividade, um exemplo de ilusão de ótica é apresentado na fig. 9.5. Figura 9.5 – Ilusão de ótica. A percepção de contornos, a segregação figura-fundo e a ocorrência de ilusões ótico-geométricas são fenômenos da estruturação pré-semântica. mesmo que possam corresponder à aparência de um objeto, elas ainda não permitem sua identificação. para tanto é necessário montar uma representação espacial (3d) e recuperar os conhecimentos prévios sobre a função do objeto. ao completar os processos cognitivos o indivíduo tem acesso à representação fonológica e lexical sobre sua denominação. isto é, recupera o nome do objeto. Percepção auditiva O sistema auditivo humano recebe as informações de fontes sonoras simultâneas de maneira seletiva. as representações acusticamente coerentes, denominadas objetos ou “imagens” auditivas, são organizadas em processos paralelos e seqüenciais. Nos processos paralelos o sistema auditivo organiza os eventos sonoros segundo sua amplitude, freqüência, forma espectral e posição. os processos seqüenciais lidam com sucessões de eventos acústicos percebidos na forma de um fluxo. os componentes de um fluxo sonoro apresentam continuidade, como em uma melodia, e são determinados por relação de freqüência, cadência, intensidade, conteúdo espectrais, etc. 46 Percepção da fala A percepção da linguagem falada está organizada na forma de uma série de sucessivos processos de codificação. a nível neuro-sensorial ocorre a codificação neuronal dos estímulos fonéticos. A informação sobre a estrutura espectral destes estímulos é extraída e estocada numa memória sensorial de curtíssimo termo. isto permite a análise dos índices acústicos pertinentes que são confrontados com os traços fonéticos característicos de uma linguagem específica. ocorre então a filtragem das variações fonéticas que não são características, de maneira a isolar as unidades silábicas. a nível lexical se dá o tratamento de acesso ao léxico e de identificação das palavras. a nível sintático ocorre a integração das informações lexicais e sintáticas com a interpretação da mensagem recebida. Percepção orientada A percepção é uma atividade eminentemente adaptativa e não um simples estágio de registro passivo dos estímulos externos. o percebido, não uma fotografia fiel do ocorrido. a percepção é uma construção, um conjunto de informações selecionadas e estruturadas, em função da experiência anterior das necessidades e das intenções do organismo, implicado ativamente numa determinada situação. isso porque, os processos cognitivos de detecção e de discriminação das informações são extremamente complexos e interligados. A discriminação de uma informação apóia-se sobre uma detecção previamente efetuada. assim, a detecção da informação não depende unicamente das características da estimulação externa ou sensação (como propõe a psicologia behaviorista), mas também do tratamento que o sujeito pretende realizar. esta dependência da detecção da informação “à montante” em relação à discriminação e o tratamento “à jusante”, não aparece de maneira evidente nas experiências de laboratório, quando a detecção para o sujeito tem apenas o objetivo de responder a uma senha artificial, numa situação também artificial. ao contrario, na realidade do trabalho, a detecção responde a um objetivo, mais ou menos explícito, por parte do sujeito, o qual irá organizar a coleta das informações consideradas pertinentes em relação a este objetivo. A atenção e a vigilância desempenham um importante papel de regulação de todas as entradas de informações, tanto para as detecções dirigidas pelo sujeito (voluntárias e conscientes), como para as recepções impostas pelas estimulações externas. o meio ambiente é analisado e explorado, de forma seletiva. a exploração é dirigida por esquemas antecipativos, que determinam à disponibilidade frente a diferentes tipos de configurações (óticas, sonoras, etc.) e a planificação da ação perceptiva. esses esquemas são desenvolvidos a partir da historia pessoal e profissional de cada individuo, sendo utilizados pelas configurações que são, constantemente percebidas. O resultado da exploração perceptiva modifica o esquema inicial que, por sua vez, modifica a exploração e, assim, sucessivamente. de fato, a detecção de uma informação é tomada de conhecimento da ocorrência de um evento, quer seja ele uma anormalidade, um incidente ou mesmo um desvio em relação a uma situação “estabilizada”, considerada normal. Evidentemente, existem sinais que são percebidos, ainda que eles não façam parte do que foi antecipado. em geral, para que isto ocorra, é preciso que eles se imponham através de determinadas características físicas (nível ou freqüência sonora, luminosidade, cor, etc.). a orientação perceptiva se traduz por uma filtragem considerável dos sinais, sobre os quais a percepção não é focalizada. 47 A orientação perceptiva é ligada ao curso da ação no qual o sujeito encontra-se engajado, num determinado momento e, em particular, aos objetivos que ele persegue. da mesma forma, ela depende da competência do sujeito, a qual permite um conhecimento da probabilidade do aparecimento de certos sinais, e do significado de uma série de eventos. Esta descrição dos mecanismos de exploração perceptiva permite destacar que a operação de um sistema de produção (ou de uma simples máquina), não é um fenômeno passivo. a exploração dos diferentes sinais externos visa detectar incidentes em vias de ocorrência, antes que eles tenham conseqüências mais graves. segundo o curso da ação o qual o sujeito encontra-se envolvido, os parâmetros não serão explorados da mesma forma, com a mesma freqüência ou mesma ordem. em um determinado momento, o individuo realiza uma focalização cognitiva, a determinados eventos de forma seletiva, em prejuízo de outros, tornando-se mais atento e preparado para a realização de certas ações. Não se trata apenas de seqüências fixas de tomadas de informações e de ações que se reproduzem de forma idêntica, uma em relação á outra, no desenvolvimento da atividade de trabalho, mas de complexas relações que podem ser descritas, resumidamente, da seguinte forma: • A partir de sua informação e de sua experiência, um individuo estabelece relações preferenciais entre certas configurações da realidade e das ações a serem realizadas; • Essas relações, quando ativadas, orientam a exploração perceptiva, a tomada de informação, a decisão das ações a serem realizadas, a antecipação de seu resultado e o controle da coerência entre o resultado esperado e o resultado real; e • Todas as relações, potencialmente disponíveis, não são ativadas num determinado momento. é o encadeamento das ações do individuo, frente á uma determinada realidade, que provoca a ativação de certas relações. Por exemplo, a representação que um usuário de um provedor de acesso à internet tem sobre o processo de conexão por linha telefônica comporta um conhecimento sobre os objetivos desta fase, uma previsão sobre a evolução esperada com os ruídos produzidos pela linha telefônica e pelo modem, a antecipação dos sinais e mensagens apresentados na interface e a preparação para o curso da ação seguinte (efetuar o login, por exemplo). Exercícios 1. O que são modelos mentais? Pesquise 3 sites na internet a respeito do assunto. 2. Quais são as principais características da memória conexionista e da memória cibernética computacional? 3. O que é percepção orientada? 48 10.1 - Tempo x dinheiro x pessoas. Estimativa de custos Os preços dos projetos devem ser definidos de acordo com o custo do negócio a ser feito mais uma margem de lucro razoável. As equações a seguir podem ser válidas: • Pr = Cp + En + Lu; • Im = 12% de Pr; e • Fa = P + Im, onde • Pr = preço do projeto; • Cp = custo do projeto (homem/hora de trabalho + equipamentos) • En = encargos (70% sobre h/h), são custos dos empregados • Im = impostos (12% sobre Pr) • Lu =lucro da empresa (20% sobre Cp) • Fa = preço na fatura Exemplo prático: Para Cp = R$ 12.000, correspondente 100 horas de trabalho e custo de utilização de equipamentos, tem-se: • En = Cp * 70% = 12000 * 0.7 => En = R$ 8.400,00 • Lu = CP * 20% = 12000 * 0.2 => Lu = R$ 2.400,00; assim • Pr = Cp + Em + Lu = 12.000 + 8.400 + 2.400 = R$ 22.800,00 • Im = Cp * 0.12 = 12.000 * 0.12 = R$ 1.440,00 • Fa = Pr + Im = 22.800 + 1440 = R$ 24.240,00 Assim, em nosso ponto de vista, a empresa deverá cobrar R$ 24.240,00 no preço final da fatura pelos serviços. Daí serão retirados R$ 1.440,00 para o pagamento de impostos. Sobrando R$ 22.800,00 de onde serão retirados R$ 8.400,00 para pagamento de encargos, sobrando R$ 14.400,00, destes o dono da empresa poderá usar apenas R$ 2.400,00 para seu deleite, pois os R$ 12.000,00 restantes deverão fazer parte do capital da empresa para garantir seu funcionamento. Exercícios 1. Com base na apresentação sobre definição de custos de um projeto vista anteriormente, defina os custos do projeto de um sistema multimídia para treinamento de técnicos em manutenção de computadores. 51 Capítulo 11 Produção Produção de multimídia A fase de produção multimídia é a fase em que o projeto multimídia está realmente sendo executado. Durante esta fase poderão ocorrer diversos tipos de contratempos, assim faz-se necessário um controle eficiente do tempo necessário para o desempenho das diversas pessoas, tarefas e utilização dos recursos de software e hardware envolvidos. Várias atividades fundamentais de produção merecem atenção especial: mapas de navegação, agrupamento do conteúdo, encaminhamento, comunicação e uso dos talentos etc. Mapear a estrutura de navegação de um projeto é uma tarefa que deve ser feita no início da fase de planejamento de cada projeto. Um mapa de movimentação fornece uma tabela, bem como um gráfico do fluxo lógico da interface interativa. Existem 4 estruturas fundamentais de organização da navegação do usuário pelo projeto, também mostrado na fig. 11.1: • Linear: movimentação seqüencial de um quadro para outro; • Hierárquica: estrutura de árvore invertida, formada pela lógica natural do conteúdo; • Não-linear: movimentação livre através do conteúdo do projeto, não existem caminhos pré determinados; e • Composta: mistura das formas de organização anteriores. Figura 11.1 - Modelos de estruturas de navegação em hiperdocumentos. 52 Preparação do conteúdo É uma das tarefas de produção mais caras e que consome mais tempo. O projetista deve planejar antecipadamente reservando tempo e dinheiro para esta tarefa, por exemplo: • No caso de um projeto que descreverá o uso de uma nova parte da maquinaria de um robô, o projetista deve: fotografar estas partes novas ou aproveitar fotos já existentes? • No caso da utilização de um vídeo original, deve-se filmar tudo novamente, ou existem fitas para editar? • Deve também especificar no planejamento do projeto o formato e a qualidade do conteúdo e os dados que lhe devem ser fornecidos, pois a conversão do formato e as edições levam tempo. A comunicação entre as pessoas que estão criando o projeto bem como a gerência do projeto e o cliente é fundamental para o sucesso do projeto. Ciclos de aprovação do cliente: deve-se evitar retornos contínuos criando-se um esquema que especifique o número e a duração de ciclos de aprovação do cliente, proporcionando um mecanismo eficiente de pedidos de mudança. O cliente deverá ser lembrado que pagará uma taxa extra pelo retrabalho de partes não previstas na especificação de requisitos. Mídia para armazenamento de dados e transporte: tanto o projetista quanto o cliente precisam de sistemas de transferência de mídia correspondentes. Para armazenar a mídia, é possível usar a própria internet para transferir os arquivos, discos flexíveis, discos rígidos externos, Zipdrives, discos óticos etc. Mesmo em projetos pequenos, o projetista se vê lidando com muitos bits e partes digitais, portanto é importante que exista um método para encaminhar o recebimento do material que será incorporado no projeto multimídia. Deve ser preocupação do projetista: • Desenvolver uma conversão de nomes de arquivos em diretórios ou pastas com nomes lógicos; • Se trabalhando em plataformas diferentes, deve-se desenvolver um sistema de identificação de arquivo que não comprometa seu controle em quaisquer plataformas • Controlar a versão dos arquivos e sempre saber qual a versão mais antiga e com quem está a versão mais atual. Testes “Testar e depois testar novamente” . Deve-se testar e revisar o projeto para garantir que ele esteja operacional e visualmente livre de erros e que os requisitos do cliente tenham sido atingidos. Deve-se especificar claramente ao cliente a plataforma pretendente e a sua configuração de hardware e software, e fornecer uma cláusula no contrato ou no acordo que o projetista testará somente naquela plataforma. Nem todo mundo pode testar software. Isso faz com que uma personalidade especial trabalhe neste produto. Cada recurso e função devem ser exercitados; deve-se dar um clique em cada botão. Alguns testes devem ser repetidos várias vezes com diferentes hardwares e sob várias condições. Sejam os tipos de testes: 53 seja ajustada dentro do cenário virtual. Como resultado, o usuário pode olhar a sua volta e caminhar pelo mundo virtual. Para minimizar o desconforto do uso do HMD, foram desenvolvidos outros dispositivos para visão imersiva. VOOM, ou Binocular Omni-Orientation Monitor da Empresa Fakespace, apresentado na fig.12.2, é um display stereo que permite o acoplamento da cabeça do usuário, onde telas e um sistema ótico foram colocadas em uma caixa anexada a um braço mecânico. O usuário olha dentro da caixa através de dois buracos, vê o mundo virtual, e pode dirigir-se para qualquer posição dentro dos limites operacionais do dispositivo. Os movimentos da cabeça são percebidos por dispositivos conectados ao braço mecânico e movimentam a caixa. Figura 12.2- Binocular Omni-Orientation Monitor. A CAVE, Cave Automatic Virtual Environment, como mostra a fig. 12.3, foi desenvolvido pela Universidade de Ilinois em Chicago e fornece uma ilusão de imersão projetando imagens stereo nas paredes e teto de uma sala em forma de cubo. Vários usuários utilizando óculos especiais podem entrar e caminhar livremente dentro da “caverna”. Um sistema de monitoração da cabeça ajusta continuamente a projeção stereo para a posição corrente dos usuários. Figura 12.3 – CAVE do LSI-USP. 56 Para que o usuário possa interagir com o ambiente virtual, manipular objetos etc. existe uma grande variedade de dispositivos de entrada, entretanto os mais utilizados são as luvas e “joysticks”, como pode ser observado na fig. 12.4. Outros dispositivos podem ser utilizados para propiciar a “imersão” do usuário no ambiente virtual, tais como som direcional, dispositivos táteis e de “force feedback”, reconhecimento de voz etc. Figura 12.4 – Luvas. Características da RV imersiva As principais características da realidade virtual Imersiva são descritas a seguir: • Visores referenciados pela posição da cabeça, que permitem a navegação no espaço tridimensional para caminhadas, observações do ambiente virtual e locomoção de modo geral; • Visão stereo, para incrementar o sentido espacial; • O mundo virtual é representado em uma escala 1:1 dando a maior realidade aos objetos (tamanho do ser humano); • Interações realísticas com objetos virtuais a partir das luvas e outros dispositivos, viabilizando a operação, controle e manipulação no mundo virtual; • A “ilusão convincente” de estar completamente imerso no ambiente artificial; Podem-se compartilhar ambientes virtuais a partir de redes de computadores, um exemplo desse compartilhamento está representado na fig. 12.5, onde três usuários, em locais diferentes, conectados por rede de computadores compartilhando o mesmo ambiente virtual utilizando dispositivos diferentes, por exemplos o BOOM a CAVE e o capacete. 57 Figura 12.5 - Compartilhando ambientes virtuais. Todos os usuários vêem o mesmo ambiente, cada um do seu respectivo ponto de vista. Cada ser humano é representado por uma imagem humana virtual (avatar) para os outros participantes. Cada usuário pode ver, interagir e comunicar-se com o outro como uma equipe. A RV não imersiva Atualmente o termo “Realidade Virtual” é também utilizado em aplicações não totalmente imersivas. Cada vez mais as fronteiras do universo virtual ficam mais nebulosas permitindo o aparecimento desse tipo de ambiente. Em ambientes não imersivos podem-se utilizar navegação com o mouse através de um ambiente tridimensional em um monitor de vídeo, ou a partir de um óculo, projetor estéreo e outros. A ferramenta QuickTime VR (da Apple) por exemplo, utiliza fotos para modelar mundos tridimensionais e fornecer pseudo visões de caminhadas e paisagens em um monitor de vídeo. A linguagem VRML “Virtual Reality Modeling Language” ou VRML permite a exploração de ambientes virtuais na WWW. Do mesmo modo que “HyperText Markup Language” ou HTML tornou-se um padrão para a autoria de páginas, a VRML permite a integração de mundos tridimensionais com hiperlinks na web. Home pages tornam-se espaços. A visualização de espaços virtuais a partir de modelos VRML a partir de “plug- ins”, nos navegadores da web, como mostra a fig. 12.6, é feita em um monitor gráfico sob o controle do “mouse” e portanto não é imersiva. A sintaxe e as estruturas de dados da VRML fornecem uma ferramenta excelente para a modelagem de mundos tridimensionais funcionais e interativos e que podem ser transferidos para sistemas imersivos. Figura 12.6 – Visualizando com VRML. 58
Docsity logo



Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved